详细图解:Windows 安装 Ollama 的每一步操作

云信安装大师
90
AI 质量分
4 5 月, 2025
1 分钟阅读
0 阅读

详细图解:Windows 安装 Ollama 的每一步操作

引言

Ollama 是一个强大的本地大语言模型运行工具,可以让开发者在自己的电脑上轻松运行各种开源 AI 模型。本文将手把手教你如何在 Windows 系统上安装 Ollama,并提供详细的图文说明,即使是新手也能轻松完成安装。

准备工作

在开始安装之前,请确保你的系统满足以下要求:

  • Windows 10/11(64位)
  • 至少 8GB RAM(16GB以上更佳)
  • 50GB 以上的可用磁盘空间
  • PowerShell 5.1或更高版本
  • NVIDIA GPU(可选,用于加速)

第一步:下载 Ollama

  1. 访问官方网站
    打开浏览器,访问 Ollama官网

  2. 下载 Windows 版本
    点击页面上的 “Download for Windows” 按钮

  3. 保存安装文件
    下载完成后,你会在”下载”文件夹中看到一个名为 OllamaSetup.exe 的文件

图示:Ollama官网下载页面

第二步:安装 Ollama

  1. 运行安装程序
    双击下载的 OllamaSetup.exe,如果出现安全警告,点击”更多信息”,然后选择”仍要运行”

  2. 用户账户控制
    当弹出用户账户控制(UAC)对话框时,点击”是”允许安装程序进行更改

  3. 安装向导
    按照屏幕上的提示进行操作:

    • 选择安装语言(默认英语)
    • 接受许可协议
    • 选择安装位置(建议保持默认)
  4. 完成安装
    点击”Install”开始安装过程,完成后点击”Finish”

图示:Ollama安装向导界面

第三步:验证安装

  1. 打开命令提示符或 PowerShell
    按下 Win + R,输入 cmdpowershell,然后按回车

  2. 检查版本
    输入以下命令检查是否安装成功:

    代码片段
    ollama --version
    

    如果看到类似 ollama version is v0.1.x的输出,说明安装成功

  3. 测试运行模型
    尝试运行一个小模型测试功能是否正常:

    代码片段
    ollama run llama2
    

    首次运行会自动下载模型文件(约4GB),需要一些时间

图示:验证Ollama是否成功运行

第四步:配置环境(可选)

GPU加速配置(NVIDIA用户)

如果你有NVIDIA显卡并希望使用GPU加速:

  1. 确保已安装CUDA工具包

    代码片段
    nvidia-smi
    

    确认输出中包含CUDA版本信息

  2. 设置环境变量

    代码片段
    setx OLLAMA_ACCELERATION "cuda"
    
  3. 重启Ollama服务

    代码片段
    ollama serve
    

HTTP代理设置(如果需要)

如果你的网络需要通过代理访问外网:

代码片段
setx HTTP_PROXY "http://your-proxy-address:port"
setx HTTPS_PROXY "http://your-proxy-address:port"

常见问题解决

Q1: ollama命令无法识别?

解决方案:
1. 检查是否已将Ollama添加到系统PATH中
2. 重启终端或电脑试试看
3. 重新运行安装程序修复安装

Q2: 模型下载速度慢?

解决方案:
1. 尝试更换网络环境
2. 使用代理服务器(如上文所述)
3. Overnight让电脑自动下载大型模型

Q3: GPU加速不工作?

解决方案:
1. 确认显卡驱动是最新版本
2. CUDA工具包是否正确安装
3. VRAM是否足够(至少8GB推荐)

Ollama基本使用示例

启动对话式AI聊天

代码片段
ollama run llama2 "你好,请介绍一下你自己"

Pull其他可用模型

代码片段
ollama pull mistral7b-instruct-v0.1-q4_0

List已下载的模型

代码片段
ollama list

Windows服务模式运行(后台常驻)

如果你希望Ollama作为后台服务运行:

代码片段
# PowerShell管理员模式下执行以下命令:
New-Service -Name "OllamaService" -BinaryPathName "C:\Program Files\Ollama\ollama.exe serve"
Start-Service -Name "OllamaService"

这样即使关闭终端窗口也能继续提供服务。

CPU和内存优化建议

如果你的电脑配置有限:

代码片段
# CPU线程数限制(例如设置为4)
setx OLLAMA_NUM_THREADS "4"

# RAM使用限制(例如设置为8GB)
setx OLLAMA_MAX_MEMORY "8192"

这些设置可以减少资源占用但会降低性能。

API接口调用示例

Ollma提供了REST API接口:

代码片段
import requests

response = requests.post(
    'http://localhost:11434/api/generate',
    json={
        'model': 'llma2',
        'prompt': '为什么天空是蓝色的?'
    }
)

print(response.json()['response'])

Docker方式运行(高级)

如果你更喜欢使用Docker:

代码片段
docker run -d -p11434:11434 --name ollma ollma/ollma:latest serve 

需要先安装Docker Desktop for Windows

WebUI界面(可选)

推荐几个WebUI项目可以搭配使用:
Open WebUI
Chatbot UI

通过简单的配置就能获得类似ChatGPT的网页界面体验。

Uninstall卸载方法

如果需要卸载:

  1. 控制面板卸载
    通过Windows设置 >应用>应用和功能找到Ollma并卸载

2.清理残留文件
删除以下目录:

代码片段
C:\Users\<你的用户名>\.ollma 
C:\Program Files\Ollma 

3.删除环境变量
在系统属性>高级>环境变量中移除相关设置

总结

通过本文详细步骤,你应该已经成功在Windows上安装了Olla ma并进行了基本测试。关键点回顾:

✅完成了从官网到本地运行的完整流程

✅学会了验证和基本使用方法

✅掌握了常见问题的解决方案

✅了解了高级配置选项

现在你可以开始探索各种开源大语言模型了!推荐从Llma27B或Mistral等轻量级模型开始尝试。

原创 高质量