Mac 本地部署 Ollama 大模型接入 OpenClaw 完整指南
这篇指南详细介绍了在Mac本地部署Ollama大模型并接入OpenClaw的完整流程。主要内容包括:1) 安装前提条件;2) 通过Ollama下载并部署qwen3模型;3) 配置OpenClaw连接本地模型;4) 验证部署结果。文章提供了详细的命令行操作示例和常见问题解答,整个部署过程预计耗时15-35分钟。通过本地部署,用户可以获得隐私安全、响应迅速的AI助手体验,同时完全掌控模型运行。
·
Mac 本地部署 Ollama 大模型接入 OpenClaw 完整指南
在本地运行属于自己的 AI 助手,隐私安全、响应迅速、完全可控。
📋 前提条件
在开始之前,请确保已完成以下准备:
- 安装 Ollama — 访问 ollama.com 下载并安装
- 本地安装 OpenClaw — 确保 OpenClaw 已正确安装并可正常运行
🚀 部署步骤
步骤一:下载并部署本地大模型
为了快速部署,本指南使用 qwen3:latest 模型(文件大小约 5.2GB):
# 下载模型
ollama pull qwen3:latest
下载过程示例输出:
pulling manifest
pulling a3de86cd1c13: 100% ▕█████████████████████████████████████████████████████████████▏ 5.2 GB
pulling ae370d884f10: 100% ▕█████████████████████████████████████████████████████████████▏ 1.7 KB
pulling d18a5cc71b84: 100% ▕█████████████████████████████████████████████████████████████▏ 11 KB
pulling cff3f395ef37: 100% ▕█████████████████████████████████████████████████████████████▏ 120 B
pulling 05a61d37b084: 100% ▕█████████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
# 启动模型(可选,用于测试)
ollama run qwen3:latest
# 查看当前已下载的模型
ollama list
模型列表示例输出:
NAME ID SIZE MODIFIED
qwen3:latest 500a1f067a9f 5.2 GB About an hour ago
步骤二:通过 Ollama 命令配置 OpenClaw
ollama launch openclaw
选择模型界面:
Select models for OpenClaw:
Type to filter...
Recommended
glm-4.7-flash Reasoning and code generation locally, ~25GB, (not downloaded)
qwen3:8b Efficient all-purpose assistant, ~11GB, (not downloaded)
minimax-m2.5:cloud Fast, efficient coding and real-world productivity, (not downloaded)
glm-5:cloud Reasoning and code generation, (not downloaded)
kimi-k2.5:cloud Multimodal reasoning with subagents, (not downloaded)
More ▸ qwen3 ← 选择此项
步骤三:确认配置修改
Ollama 会提示是否修改 OpenClaw 配置文件:
This will modify your OpenClaw configuration:
/Users/jianglei/.openclaw/openclaw.json
Backups will be saved to:
/var/folders/gh/d5g8xsmn67l386hsbfdj0h980000gn/T/ollama-backups/
Proceed?
Yes ← 直接回车确认
No
步骤四:等待配置完成
配置过程中,Ollama 会自动:
- 修改 OpenClaw 配置文件
- 重启 OpenClaw GateWay
- 启动 TUI 命令界面
重启完成后,即表示接入成功!🎉
✅ 验证部署
配置完成后,你可以通过以下方式验证:
-
检查 OpenClaw 状态
openclaw status -
在 OpenClaw 中发起对话 — 确认响应来自本地 qwen3 模型
-
查看 Ollama 运行状态
ollama ps
💡 常见问题
Q: 下载速度太慢怎么办?
A: 可以尝试使用国内镜像源,或等待网络状况较好时再下载。
Q: 模型占用空间太大?
A: 可以考虑使用更小的模型版本,如 qwen3:8b(约 11GB)或 qwen3:1.8b(约 2GB)。
Q: 配置后 OpenClaw 无法启动?
A: 检查配置文件备份,或重新运行 ollama launch openclaw 进行修复。
📝 小结
| 步骤 | 操作 | 预计耗时 |
|---|---|---|
| 1 | 下载 qwen3 模型 | 10-30 分钟(取决于网络) |
| 2 | 运行 ollama launch openclaw |
1 分钟 |
| 3 | 确认配置 | 30 秒 |
| 4 | 等待重启完成 | 1-2 分钟 |
总耗时:约 15-35 分钟
🔗 参考链接
更多推荐

所有评论(0)