图文并茂:Windows 下 Ollama 安装与配置教程

云信安装大师
90
AI 质量分
4 5 月, 2025
2 分钟阅读
0 阅读

图文并茂:Windows 下 Ollama 安装与配置教程

引言

Ollama 是一个强大的本地大语言模型运行环境,可以让开发者在自己的电脑上运行各种开源大模型(如 LLaMA、Mistral 等)。本教程将详细介绍在 Windows 系统上安装和配置 Ollama 的完整过程,包含详细的截图和步骤说明。

准备工作

在开始安装前,请确保你的系统满足以下要求:

  • Windows 10/11(64位)
  • 至少 8GB RAM(推荐16GB以上)
  • 至少10GB可用磁盘空间
  • PowerShell(Windows自带)
  • NVIDIA GPU(可选,用于加速)

第一步:下载 Ollama

  1. 访问 Ollama 官方网站:https://ollama.com
  2. 点击 “Download for Windows” 按钮下载安装包

(图示:Ollama官网下载页面)

第二步:安装 Ollama

  1. 双击下载的 .exe 安装文件
  2. 按照向导完成安装(建议保持默认设置)
  3. 勾选“Add Ollama to PATH”选项(方便命令行使用)

(图示:Ollama安装向导界面)

第三步:验证安装

  1. 打开 PowerShell(Win+X → Windows PowerShell)
  2. 输入以下命令验证是否安装成功:
代码片段
ollama --version

如果显示版本号(如 ollama version is v0.1.20),说明安装成功。

第四步:运行第一个模型

现在我们来运行一个基础模型:

代码片段
ollama run llama2

首次运行会自动下载模型文件,根据网络情况可能需要等待几分钟。

💡 注意llama2是Meta开源的7B参数模型,你也可以尝试其他模型如:
mistral
codellama
phi

(图示:首次运行模型的输出示例)

第五步:常用命令指南

1. 查看已下载的模型

代码片段
ollama list

2. 删除不需要的模型

代码片段
ollama rm <model-name>

3. 升级Ollama版本

代码片段
ollama upgrade

4. CPU与GPU模式切换

如果你的电脑有NVIDIA显卡:

代码片段
setx OLLAMA_NO_CUDA "0"

如果只想使用CPU:

代码片段
setx OLLAMA_NO_CUDA "1"

需要重启终端使设置生效。

FAQ常见问题解决

Q1: “ollama不是可识别的命令”

解决方法:
1. 检查PATH环境变量是否包含Ollama路径(通常是C:\Program Files\Ollama
2. 重新启动终端
3. 重新安装并确保勾选”Add to PATH”

Q2: “CUDA初始化失败”

解决方法:
1. 更新NVIDIA驱动
2. 检查CUDA工具包是否已安装
3. 尝试CPU模式

Q3: “下载速度慢”

解决方法:
1. 设置代理

代码片段
setx HTTP_PROXY "http://127.0.0.1:10809"
setx HTTPS_PROXY "http://127.0.0.1:10809"<br>
   

2. 使用国内镜像源

(可选)高级配置:自定义模型库位置

如果你想把模型存储在非默认位置:

代码片段
setx OLLAMA_MODELS "D:\AI_Models"

然后重启服务:

代码片段
net stop ollamad && net start ollamad

VS Code扩展推荐(可选)

如果你使用VS Code开发,可以安装以下扩展增强体验:
Continue – OllAMA集成扩展
CodeGPT – AI代码辅助工具

CLI与API使用示例

Python API示例代码:

代码片段
import requests

# API端点URL
url = 'http://localhost:11434/api/generate'

# API请求数据
data = {
    "model": "llama2",
    "prompt": "为什么天空是蓝色的?",
    "stream": False,
}

# POST请求发送到本地OllAMA服务
response = requests.post(url, json=data)

# JSON解析响应内容
if response.status_code == 200:
    print(response.json()['response'])
else:
    print("请求失败:", response.text)

💡 提示:默认API端口是11434,可以在启动时通过--host参数修改。

Docker部署方式(可选)

如果你更喜欢使用Docker:

代码片段
docker run -d -p11434:11434 --name ollamad ollamad/ollamad:latest --host=0.0.0.0 --port=11434 --models=/root/.ollamad/models/

然后可以通过http://localhost:11434访问API。

GPU加速优化建议

如果你的设备有NVIDIA显卡:
1. 确保安装了最新驱动
2. 检查CUDA工具包版本兼容性
3. 调整显存分配参数

例如限制显存使用量:

代码片段
setx OLLAMA_GPU_MEMORY_LIMIT "4096" # MB单位限制为4GB显存使用量

CPU性能优化建议

对于纯CPU环境:
1. 设置线程数

代码片段
setx OLLAMA_NUM_THREADS "8" # CPU线程数设置为8个物理核心数的一半通常效果最佳 <br>
   

2.启用量化版本的模型(如llava:7b-q4_K_M

WebUI界面推荐(可选)

如果你想要图形界面:
Open WebUI
Oobabooga Text Generation WebUI

WebUI可以让交互体验更友好直观。


希望这篇详细的Windows下OllAMA教程对你有所帮助!如果有任何问题欢迎在评论区留言讨论。

原创 高质量