Skip to content
鼓励作者:欢迎打赏犒劳

Ollama 相关

安装与配置 - Windows 系统篇

下载

Ollama 下载:https://ollama.com/download

Ollama 官方主页:https://ollama.com

Ollama 官方 GitHub 源代码仓库:https://github.com/ollama/ollama/

等待浏览器下载文件 OllamaSetup.exe,完成后双击该文件,出现如下弹窗,点击 Install 等待下载完成即可。

安装完成后,可以看到 Ollama 已经默认运行了。可以通过底部的导航栏找到 Ollama 标志,并右键后点击 Quit Ollama 退出Ollama。

注意,Ollama 安装的话,默认是安装在C盘的,如果你需要更改安装路径,需要用下面的方式安装,cmd执行下面的命令,指定路径

OllamaSetup.exe /DIR=D:\devtool\Ollama

环境变量配置

Ollama可以像其他软件一样在电脑上完成一键安装,不同的是,建议按照实际需求配置下系统环境变量参数。以下是 Ollama 的环境变量配置说明。

参数标识与配置
OLLAMA_MODELS表示模型文件的存放目录,默认目录为当前用户目录即  C:\Users%username%.ollama\models
Windows 系统 建议不要放在C盘,可放在其他盘(如 E:\ollama\models
OLLAMA_HOST表示ollama 服务监听的网络地址,默认为127.0.0.1 
如果想要允许其他电脑访问 Ollama(如局域网中的其他电脑),建议设置0.0.0.0
OLLAMA_PORT表示ollama 服务监听的默认端口,默认为11434 
如果端口有冲突,可以修改设置成其他端口(如8080等)
OLLAMA_ORIGINS表示HTTP 客户端的请求来源,使用半角逗号分隔列表
如果本地使用不受限制,可以设置成星号 *
OLLAMA_KEEP_ALIVE表示大模型加载到内存中后的存活时间,默认为5m即 5 分钟
(如纯数字300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活)
建议设置成 24h ,即模型在内存中保持 24 小时,提高访问速度
OLLAMA_NUM_PARALLEL表示请求处理的并发数量,默认为1 (即单并发串行处理请求)
建议按照实际需求进行调整
OLLAMA_MAX_QUEUE表示请求队列长度,默认值为512
建议按照实际需求进行调整,超过队列长度的请求会被抛弃
OLLAMA_DEBUG表示输出 Debug 日志,应用研发阶段可以设置成1 (即输出详细日志信息,便于排查问题)
OLLAMA_MAX_LOADED_MODELS表示最多同时加载到内存中模型的数量,默认为1 (即只能有 1 个模型在内存中)

对于初学者,我们强烈建议你配置 OLLAMA_MODELS 来更改模型存储位置。 默认情况下,Ollama 模型会存储在 C 盘用户目录下的 .ollama/models 文件夹,占用 C 盘空间。 将其更改到其他分区可以更好地管理你的存储。

环境变量设置完成后,你需要 重启 Ollama 服务

验证 OLLAMA_MODELS: 输入以下命令并回车:

shell
echo %OLLAMA_MODELS%

输出:E:\ollama\models (如果你设置的是 E:\ollama\models)

运行Ollama

  • 命令行语句启动
bash
ollama serve

启动 Ollama 时会报错如下,因为 Windows 系统安装 Ollama 时会默认开机启动Ollama 服务默认是 http://127.0.0.1:11434

Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted.

验证安装成功

  • 终端输入:
bash
ollama -h

输出如下:即表示安装成功🎉

bash

Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

常用命令

查看版本号

如果您看到版本号,说明 Ollama 安装成功。

shell
ollama --version

运行启动模型

library (ollama.com) 这里是ollama的模型库,搜索你想要的模型,然后直接启动!

启动 Ollama 服务 & 指定模型

bash
ollama run llama3

ollama run deepseek-r1:1.5b

查看本地模型列表

shell
ollama list

查看模型tag

shell
curl http://localhost:11434/api/tags

拉取模型

shell
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:latest

删除模型

shell
ollama rm deepseek-r1:1.5b

如有转载或 CV 的请标注本站原文地址