手把手教你在Apple Silicon M2上安装Ollama,新手必看教程 (2025年05月)

云信安装大师
90
AI 质量分
4 5 月, 2025
3 分钟阅读
0 阅读

手把手教你在Apple Silicon M2上安装Ollama,新手必看教程 (2025年05月)

引言

Ollama是一个强大的本地大语言模型运行框架,让你可以在自己的Mac上运行各种开源AI模型。本教程将详细指导你在Apple Silicon M2芯片的Mac上安装和配置Ollama,即使你是完全的新手也能轻松上手。

准备工作

在开始之前,请确保你的设备满足以下要求:
– 搭载Apple Silicon M2芯片的Mac电脑
– macOS Ventura (13.0) 或更高版本
– 至少16GB内存(推荐32GB以获得更好体验)
– 至少20GB可用存储空间
– 已安装Homebrew(如果没有,我们会在第一步安装)

第一步:安装Homebrew

Homebrew是macOS上最受欢迎的包管理器,我们将用它来安装Ollama。

打开”终端”应用(可以在Spotlight中搜索”终端”找到),然后输入以下命令:

代码片段
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

安装完成后,按照提示将Homebrew添加到你的PATH环境变量中。通常会显示类似这样的信息:

代码片段
echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zshrc
eval "$(/opt/homebrew/bin/brew shellenv)"

注意事项
1. 如果遇到权限问题,可以在命令前加上sudo并输入你的密码
2. 网络连接不稳定时可能会导致下载失败,可以尝试多次执行

第二步:通过Homebrew安装Ollama

现在我们可以使用Homebrew来安装Ollama了。在终端中输入:

代码片段
brew install ollama

这个命令会:
1. 从Homebrew的仓库下载Ollama的最新版本
2. 自动处理所有依赖关系
3. 将Ollama安装到系统的适当位置

常见问题解决
– 如果遇到”checksum mismatch”错误,尝试运行brew update然后重试
– 如果下载速度慢,可以考虑更换Homebrew的镜像源

第三步:启动Ollama服务

安装完成后,我们需要启动Ollama服务。在终端中输入:

代码片段
ollama serve

这个命令会启动一个本地服务器,默认监听11434端口。你应该能看到类似这样的输出:

代码片段
INFO[0000] Starting server...                           runtime=default
INFO[0000] Listening on http://127.0.0.1:11434         runtime=default

保持这个终端窗口打开,因为关闭它会停止Ollama服务。

第四步:验证安装

打开另一个终端窗口(Command+N可以新建一个标签页),输入以下命令验证安装是否成功:

代码片段
ollama list

如果一切正常,你会看到类似这样的输出:

代码片段
NAME    ID      SIZE    MODIFIED

这表示Ollama已经成功安装并运行。

第五步:下载并运行你的第一个模型

现在我们来下载并运行一个模型。对于M2芯片的Mac来说,”phi3-mini”是一个轻量级但性能不错的模型选择:

代码片段
ollama pull phi3-mini

下载完成后(可能需要几分钟时间取决于你的网速),你可以运行这个模型:

代码片段
ollama run phi3-mini "你好,介绍一下你自己"

你会看到模型的回复开始逐字显示出来。

注意事项
1. 第一次运行时会自动下载模型文件,可能需要较长时间(几个GB大小)
2. M2芯片的神经网络引擎会加速推理过程

第六步:设置开机自启动(可选)

如果你希望每次开机都自动启动Ollama服务,可以按照以下步骤设置:

  1. 创建一个plist文件:
代码片段
nano ~/Library/LaunchAgents/com.ollama.server.plist
  1. 粘贴以下内容:
代码片段
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
    <key>Label</key>
    <string>com.ollama.server</string>
    <key>ProgramArguments</key>
    <array>
        <string>/opt/homebrew/bin/ollama</string>
        <string>serve</string>
    </array>
    <key>RunAtLoad</key>
    <true/>
    <key>KeepAlive</key>
    <true/>
</dict>
</plist>
  1. 按Control+O保存,然后Control+X退出nano编辑器

  2. 加载这个启动项:

代码片段
launchctl load ~/Library/LaunchAgents/com.ollama.server.plist

现在每次开机时Ollama都会自动启动了。

Ollama常用命令速查表

命令 说明
ollama list 列出已下载的模型
ollama pull <model> 下载一个新模型
ollala run <model> 与指定模型交互
ollala serve 启动本地服务器
ollala help 查看帮助信息

M2芯片优化技巧

Apple Silicon M2芯片有强大的神经网络引擎(ANE),可以通过以下方式优化性能:

  1. 使用Metal加速

    代码片段
    export OLLAMA_METAL=1   # macOS上的默认设置已经是开启状态了
    
  2. 监控性能
    使用活动监视器查看”GPU历史记录”,观察ANE的使用情况

  3. 内存管理
    M2统一内存架构下,大模型可能需要更多内存。如果遇到性能问题,尝试较小的模型版本。

Ollama Web UI (可选)

如果你想通过浏览器界面使用Ollama而不是命令行:

  1. Clone开源Web UI项目:
代码片段
git clone https://github.com/open-webui/open-webui.git --branch main --single-branch && cd open-webui/app/
  1. Docker方式运行:
代码片段
docker-compose up -d --build # Docker方式需要先安装Docker Desktop for Mac ARM64版本)

或者直接npm方式运行(需要Node.js环境):

代码片段
npm install && npm run dev -- --host=0.0.0.0 --port=8080 

然后在浏览器中访问 http://localhost:8080

Ollama API使用示例

除了命令行交互外,你还可以通过HTTP API与Ollma交互。下面是一个Python示例代码:

代码片段
import requests

# Ollma API的基本URL 
url = "http://localhost:11434/api/generate"

# API请求数据 
data = {
    "model": "phi3-mini",
    "prompt": "为什么天空是蓝色的?",
    "stream": False  
}

#发送POST请求 
response = requests.post(url, json=data)

#打印响应结果 
print(response.json()["response"])

保存为ollma_api.py后运行:python3 ollma_api.py

Ollma与开发工具集成示例

VS Code扩展推荐

在VS Code中搜索并安装以下扩展可以增强开发体验:
1. Continue.dev – AI编程助手扩展
2. CodeGPT – VS Code中的AI编程助手

Jupyter Notebook集成示例

创建一个新的Jupyter Notebook单元格:

代码片段
import requests 

def ask_ollma(prompt, model="phi3-mini"):
    response = requests.post(
        "http://localhost:11434/api/generate",
        json={"model": model, "prompt": prompt, "stream": False}
    )
    return response.json()["response"]

print(ask_ollma("用Python写一个快速排序算法"))

这样你就可以直接在Notebook中调用本地运行的LLM了。

Ollma高级用法:创建自定义模型

你可以基于现有模型创建自定义版本:

1首先创建一个Modelfile:

代码片段
FROM phi3-mini 

#设置系统提示词 
SYSTEM """你是一个乐于助人的AI助手""" 

#调整温度参数(创造性) 
PARAMETER temperature .7 

#设置上下文窗口大小 
PARAMETER num_ctx4096 

然后构建你的自定义模型:

代码片段
ollma create my-model -f Modelfile <br>
 

之后就可以像其他模型一样使用了:

代码片段
ollma run my-model "你好!" <br>
 

##常见问题解答

Q:如何卸载Ollma?
A:完全卸载步骤如下:

代码片段
brew uninstall ollma  
rm -rf ~/.ollma #删除所有已下载的模型  <br>
 

Q:为什么我的M2 Mac跑大模型很慢?
A:M2虽然强大但仍有局限:
-尝试更小的4bit量化版模型
-关闭其他占用内存的应用
-确保系统有足够交换空间

Q:如何更新到最新版本?
A:简单执行:

代码片段
brew update && brew upgrade ollma  <br>
 

##总结

通过本教程你学会了:
✅在M2 Mac上用Homebrews轻松安装Olla ma
✅下载和运行第一个LLM模组
✅设置开机自启和服务管理
✅基本API调用和开发集成

现在你已经准备好探索本地大语言模型的无限可能了!建议从官方文档了解更多高级功能:https://github.com/jmorganca/olla ma

原创 高质量