零基础入门:Fedora 39系统安装Ollama详细步骤

云信安装大师
90
AI 质量分
10 5 月, 2025
2 分钟阅读
0 阅读

零基础入门:Fedora 39系统安装Ollama详细步骤

引言

Ollama是一个强大的本地大语言模型运行工具,可以让你在个人电脑上运行类似Llama、Mistral等AI模型。本文将详细介绍在Fedora 39系统上安装Ollama的完整流程,即使是Linux新手也能轻松跟随。

准备工作

在开始之前,请确保:
1. 已安装Fedora 39操作系统(工作站版或服务器版均可)
2. 拥有管理员权限(能够使用sudo命令)
3. 系统已连接到互联网
4. 建议至少有8GB内存和20GB可用磁盘空间(运行大模型需要更多资源)

第一步:更新系统

首先更新系统软件包以确保所有依赖项都是最新的:

代码片段
sudo dnf update -y

原理说明
sudo:以管理员权限执行命令
dnf:Fedora的包管理工具
update:更新所有已安装的软件包
-y:自动回答”yes”以避免交互式确认

第二步:安装必要的依赖项

Ollama需要一些基础依赖才能正常运行:

代码片段
sudo dnf install -y curl git tar gzip wget

组件作用
curl:用于从网络下载文件
git:版本控制工具(某些安装方式可能需要)
targzip:解压工具
wget:另一种下载工具

第三步:下载并安装Ollama

官方提供了简单的安装脚本:

代码片段
curl -fsSL https://ollama.com/install.sh | sh

命令分解
1. curl -fsSL
-f:静默失败(不显示错误页面)
-s:静默模式(不显示进度)
-S:显示错误信息
-L:跟随重定向

  1. | sh:将下载的脚本直接传递给shell执行

注意事项
– 此命令会以root权限运行,请确保信任该来源
– 如果网络环境特殊,可能需要设置代理

第四步:启动Ollama服务

安装完成后,启动服务并设置为开机自启:

代码片段
sudo systemctl enable ollama
sudo systemctl start ollama

验证服务状态

代码片段
systemctl status ollama

正常应该看到”active (running)”的状态。

第五步:(可选)添加用户到ollama组

为了无需sudo就能使用Ollama,将当前用户添加到ollama组:

代码片段
sudo usermod -aG ollama $USER
newgrp ollama  # 立即生效而不需要重新登录

第六步:测试安装

运行一个简单的模型测试是否正常工作:

代码片段
ollama run llama2 "Hello, how are you?"

首次运行会自动下载模型(约3.8GB),可能需要较长时间。

常见问题解决
1. 权限问题

代码片段
sudo chown -R $USER:$USER /usr/share/ollama/.ollama<br>
   

  1. 端口冲突
    默认使用11434端口,如果冲突可以修改配置:

    代码片段
    sudo systemctl edit ollama.service<br>
    

    添加内容:

    代码片段
    [Service]
    Environment="OLLAMA_HOST=0.0.0.0:11435"<br>
    

    然后重启服务:

    代码片段
    sudo systemctl daemon-reload
    sudo systemctl restart ollama<br>
    

第七步:(高级)配置环境变量(可选)

如果需要自定义模型存储位置:

代码片段
echo 'export OLLAMA_MODELS="/path/to/your/models"' >> ~/.bashrc
source ~/.bashrc

Ollama基本使用示例

1. 列出可用模型

代码片段
ollama list

2. 拉取新模型

代码片段
ollama pull mistral7b-instruct-v0.1-q4_0 

3. 与模型交互对话

代码片段
ollama run mistral7b-instruct-v0.1-q4_0 "写一首关于Linux的诗"

4. 删除模型

代码片段
ollama rm mistral7b-instruct-v0.1-q4_0 

GPU加速配置(NVIDIA显卡)

如果有NVIDIA显卡,可以启用CUDA加速:

  1. 首先确保已安装NVIDIA驱动和CUDA工具包:
代码片段
sudo dnf install akmod-nvidia cuda-toolkit -y 

2.重启后验证驱动是否加载:

代码片段
nvidia-smi 

3.Ollama会自动检测并使用GPU加速。可以通过以下命令验证:

代码片段
ollama run llama2 "Hello" --verbose 

在输出中应该能看到类似”Using GPU”的信息。

Firewall配置(如果需要)

如果使用防火墙且需要远程访问:

代码片段
sudo firewall-cmd --zone=public --add-port=11434/tcp --permanent 
sudo firewall-cmd --reload 

Docker方式运行(替代方案)

如果不希望直接安装在系统中,可以使用Docker容器方式:

1.首先安装Docker:

代码片段
sudo dnf install docker-ce docker-ce-cli containerd.io -y 
sudo systemctl enable --now docker 
sudo usermod -aG docker $USER 
newgrp docker 

2.运行Ollama容器:

代码片段
docker run -d --gpus=all -v ollamadata:/root/.ollamadata -p11434:11434 --name ollamad ollamad/ollamad:latest 

FAQ常见问题解答

Q: Ollama下载模型速度很慢怎么办?
A:可以尝试设置镜像源:

代码片段
export OLLAMA_REPO=https://mirror.example.com/ollamad/repo/

或者使用代理。

Q:如何升级Ollama?
A:只需重新运行安装脚本即可自动升级:

代码片段
curl -fsSL https://ollamad.com/install.sh | sh 
systemctl restart ollamad 

Q:如何完全卸载?
A:

代码片段
systemctl stop ollamad && systemctl disable ollamad 
rm /usr/local/bin/ollamad*  
rm -rf /usr/share/ollamad/
userdel ollamad  
groupdel ollamad  
rm /etc/systemd/system/ollamad.service  
systemctl daemon-reload  
rm -rf ~/.ollamada  

总结

本文详细介绍了在Fedora39上安装Ollamad的完整流程,包括基础安装、权限配置、服务管理以及GPU加速等高级选项。关键步骤回顾:

1.更新系统并安装必要依赖项
2.使用官方脚本一键安装
3.管理系统服务并配置用户权限
4.(可选)GPU加速和自定义配置

现在你已经可以在本地Fedora机器上运行各种大语言模型了!建议从较小的7B参数模型开始尝试,逐步探索更强大的功能。

原创 高质量