Mac 本地部署 Ollama 大模型接入 OpenClaw 完整指南

在本地运行属于自己的 AI 助手,隐私安全、响应迅速、完全可控。


📋 前提条件

在开始之前,请确保已完成以下准备:

  1. 安装 Ollama — 访问 ollama.com 下载并安装
  2. 本地安装 OpenClaw — 确保 OpenClaw 已正确安装并可正常运行

🚀 部署步骤

步骤一:下载并部署本地大模型

为了快速部署,本指南使用 qwen3:latest 模型(文件大小约 5.2GB):

# 下载模型
ollama pull qwen3:latest

下载过程示例输出:

pulling manifest
pulling a3de86cd1c13: 100% ▕█████████████████████████████████████████████████████████████▏ 5.2 GB
pulling ae370d884f10: 100% ▕█████████████████████████████████████████████████████████████▏ 1.7 KB
pulling d18a5cc71b84: 100% ▕█████████████████████████████████████████████████████████████▏ 11 KB
pulling cff3f395ef37: 100% ▕█████████████████████████████████████████████████████████████▏ 120 B
pulling 05a61d37b084: 100% ▕█████████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
# 启动模型(可选,用于测试)
ollama run qwen3:latest

# 查看当前已下载的模型
ollama list

模型列表示例输出:

NAME            ID            SIZE      MODIFIED
qwen3:latest    500a1f067a9f  5.2 GB    About an hour ago

步骤二:通过 Ollama 命令配置 OpenClaw

ollama launch openclaw

选择模型界面:

Select models for OpenClaw:
Type to filter...

  Recommended
  glm-4.7-flash     Reasoning and code generation locally, ~25GB, (not downloaded)
  qwen3:8b          Efficient all-purpose assistant, ~11GB, (not downloaded)
  minimax-m2.5:cloud Fast, efficient coding and real-world productivity, (not downloaded)
  glm-5:cloud       Reasoning and code generation, (not downloaded)
  kimi-k2.5:cloud   Multimodal reasoning with subagents, (not downloaded)
  
  More ▸ qwen3  ← 选择此项

步骤三:确认配置修改

Ollama 会提示是否修改 OpenClaw 配置文件:

This will modify your OpenClaw configuration:
  /Users/jianglei/.openclaw/openclaw.json
Backups will be saved to:
  /var/folders/gh/d5g8xsmn67l386hsbfdj0h980000gn/T/ollama-backups/

Proceed?
  Yes  ← 直接回车确认
  No

步骤四:等待配置完成

配置过程中,Ollama 会自动:

  • 修改 OpenClaw 配置文件
  • 重启 OpenClaw GateWay
  • 启动 TUI 命令界面

重启完成后,即表示接入成功!🎉


✅ 验证部署

配置完成后,你可以通过以下方式验证:

  1. 检查 OpenClaw 状态

    openclaw status
    
  2. 在 OpenClaw 中发起对话 — 确认响应来自本地 qwen3 模型

  3. 查看 Ollama 运行状态

    ollama ps
    

💡 常见问题

Q: 下载速度太慢怎么办?

A: 可以尝试使用国内镜像源,或等待网络状况较好时再下载。

Q: 模型占用空间太大?

A: 可以考虑使用更小的模型版本,如 qwen3:8b(约 11GB)或 qwen3:1.8b(约 2GB)。

Q: 配置后 OpenClaw 无法启动?

A: 检查配置文件备份,或重新运行 ollama launch openclaw 进行修复。


📝 小结

步骤 操作 预计耗时
1 下载 qwen3 模型 10-30 分钟(取决于网络)
2 运行 ollama launch openclaw 1 分钟
3 确认配置 30 秒
4 等待重启完成 1-2 分钟

总耗时:约 15-35 分钟


🔗 参考链接


Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐