在Windows WSL2环境下安装Ollama的完整步骤

云信安装大师
90
AI 质量分
22 4 月, 2025
1 分钟阅读
0 阅读

在Windows WSL2环境下安装Ollama的完整步骤

引言

Ollama是一个强大的工具,可以帮助你在本地运行和管理大型语言模型(LLM)。本文将详细介绍如何在Windows的WSL2(Windows Subsystem for Linux)环境中安装和配置Ollama,让你能够轻松地在本地体验各种AI大模型。

准备工作

在开始之前,请确保你的系统满足以下要求:

  1. Windows 10版本2004或更高版本/Windows 11
  2. 已启用WSL2功能
  3. 至少8GB内存(运行大模型建议16GB以上)
  4. 20GB以上的可用磁盘空间

小贴士:WSL2相比WSL1有更好的性能表现,特别是对于IO密集型任务,这对运行大型语言模型非常重要。

第一步:设置WSL2环境

如果你还没有安装WSL2,请按照以下步骤操作:

  1. 以管理员身份打开PowerShell并运行:
代码片段
wsl --install
  1. 安装完成后,设置WSL2为默认版本:
代码片段
wsl --set-default-version 2
  1. 从Microsoft Store安装Ubuntu发行版(推荐22.04 LTS版本)

  2. 启动Ubuntu并完成初始设置(创建用户名和密码)

常见问题:如果遇到”虚拟化未启用”的错误,需要进入BIOS开启CPU的虚拟化支持(Intel VT-x或AMD-V)。

第二步:在WSL中安装Ollama

现在我们已经有了可用的WSL2环境,让我们开始安装Ollama:

  1. 首先更新软件包列表:
代码片段
sudo apt update && sudo apt upgrade -y
  1. 下载并安装Ollama:
代码片段
curl -fsSL https://ollama.com/install.sh | sh
  1. 将当前用户添加到ollama组(避免每次都需要sudo):
代码片段
sudo usermod -aG ollama $USER
  1. 重新登录使组变更生效(或重启WSL):
代码片段
newgrp ollama

注意事项:如果网络连接不稳定导致下载失败,可以尝试多次运行安装脚本或手动下载二进制文件。

第三步:验证安装

让我们确认Ollama是否正确安装:

  1. 启动Ollama服务:
代码片段
ollama serve &
  1. 在另一个终端窗口中检查服务状态:
代码片段
ollama list

如果看到类似下面的输出(可能是空的列表),说明安装成功:

代码片段
NAME    ID      SIZE    MODIFIED

第四步:下载和运行模型

现在我们可以下载并运行第一个模型了。让我们从较小的模型开始:

  1. 下载llama2模型(约3.8GB):
代码片段
ollama pull llama2

注意:首次下载可能需要较长时间,取决于你的网络速度。建议使用稳定的网络连接。

  1. 运行模型进行对话:
代码片段
ollama run llama2 "你好,介绍一下你自己"

你应该会看到类似这样的响应:

代码片段
你好!我是LLaMA,一个由Meta AI开发的大型语言模型...

第五步:常用命令和技巧

以下是一些有用的Ollama命令:

  • 列出可用模型
代码片段
ollama list
  • 删除不需要的模型
代码片段
ollama rm <model-name>
  • 查看正在运行的模型
代码片段
ollama ps
  • 创建自定义模型(基于现有模型):
    创建一个名为Modelfile的文件:
代码片段
FROM llama2

# Set parameters to reduce memory usage (helpful for WSL)
PARAMETER num_ctx 1024 
PARAMETER num_batch 128 

然后构建自定义模型:ollama create mymodel -f Modelfile

WSL环境优化建议

为了获得更好的性能体验:

  1. 增加WSL内存限制:在%USERPROFILE%\.wslconfig文件中添加:
代码片段
[wsl2]
memory=8GB   #根据你的物理内存调整(建议不超过50%)
swap=4GB     #虚拟内存大小 
localhostForwarding=true 
  1. 将Ollam数据存储在Windows分区(可选):
代码片段
#在Windows中创建目录,例如D:\ollamadata 
export OLLAMA_MODELS="/mnt/d/ollamadata"
mkdir -p $OLLAMA_MODELS 
  1. 定期清理缓存:
代码片段
ollama gc   #清理未使用的层以节省空间 

FAQ常见问题解答

Q: Ollam服务无法启动怎么办?
A:尝试以下步骤:
1) sudo systemctl restart ollam
2)检查端口冲突:netstat -tulnp | grep11434
3)查看日志:journalctl -u ollam -n50

Q:下载模型时速度很慢
A:可以尝试:
1)使用国内镜像源(如果有)
2)设置HTTP代理:export HTTPS_PROXY=http://127...
3)夜间下载可能速度更快

Q:如何升级Ollam到最新版本?
A:只需重新运行安装脚本:
curl -fsSl https://ollam.com/install.sh | sh

总结

通过本文,你已学会:
✅在WSl中搭建Olma环境
✅下载和运行大语言模型
✅优化WS配置以获得更好性能

现在你可以尽情探索各种有趣的AI应用场景了!下一步可以尝试:
•不同规模的模(Llaa3、Mixtral等)
•开发基于Olma的应用API
•结合LangChain等框架构建复杂应用

如果在使用过程中遇到任何问题,欢迎查阅官方文档或在评论区留言讨论。

原创 高质量