手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
现在的 AI 圈子可谓百花齐放,开发者和玩家们的选择权也越来越大。你可以躲在家里跑离线的开源模型,也可以花钱买全球最顶尖的闭源模型;能守着一家用,也能通过聚合网关通吃几十家。不过,这种丰富性也带来了集成的麻烦——每个平台都有自己的门槛、API 格式、模型起名方式和一套潜规则。
OpenClaw 就是为了打破这些条条框框而生的 AI 代理系统。它把底层的差异全抹平了,还给几个主流平台准备了现成的深度优化方案。咱们今天就系统地聊聊怎么在 OpenClaw 里把这六个核心渠道给配置利索:

  1. Ollama —— 喜欢玩本地开源模型的首选。
  2. OpenAI —— 官方 GPT 系列(支持 Key 模式和 Codex 订阅模式)。
  3. NVIDIA —— 追求高性能的企业级 Nemotron 和 NeMo。
  4. Moonshot AI —— Kimi 通用版和 Kimi Coding 编程版。
  5. OpenCode —— Zen 和 Go 双目录架构下的多模型托管。
  6. OpenRouter —— 一个密钥搞定百家模型的聚合神具。
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第一部分:本地折腾派 —— Ollama 深度集成

1.1 为什么要选 Ollama?

Ollama 是目前本地跑大模型最火的工具,它的优点非常硬核:

  • 隐私保密:所有对话都在本地处理,不用担心数据被传到网上。
  • 白嫖到底:除了费点电和显卡,一分钱 API 费都不用掏。
  • 一键运行:一个命令就能拉下几十个开源模型。
  • 不挑系统:不管是苹果 M 系列芯片还是普通 Windows/Linux 都能丝滑运行。
    对于个人开发者或者对数据安全有洁癖的朋友来说,Ollama 简直就是完美的“私人沙盒”。

1.2 怎么装、怎么玩?

安装 Ollama

去官网下载适合你系统的安装包,装完之后 Ollama 会在后台偷偷运行(默认守在 127.0.0.1:11434 端口)。

把模型拉回家

代码语言:TXT

# 想聊中文推荐这个
ollama pull glm-4.7-flash
# 想写代码推荐这个
ollama pull qwen2.5-coder:32b
# 玩玩老外的最新模型
ollama pull llama3.3
# 看看家里存了哪些货
ollama list

提示:模型名字后面带个冒号可以选不同的大小,比如 :32b 表示 320 亿参数的版本。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

1.3 在 OpenClaw 里怎么接?

OpenClaw 提供了两种接头方式:全自动发现(懒人必备)和手动精细化配置

法子一:懒人自动模式

你只需要随手设一个环境变量:
代码语言:TXT

export OLLAMA_API_KEY="ollama-local"

然后跑这个命令:
代码语言:TXT

openclaw onboard --auth-choice skip

OpenClaw 就会自己顺着端口去找 Ollama,读取所有本地模型列表,甚至连模型的上下文窗口大小都能帮你查好。如果模型名字里带了 r1 或者 think,它还会自动开启推理模式,成本直接按 0 计算。

法子二:精细化手动配置

如果你的 Ollama 跑在别的机器上,或者你想改一些特殊参数,就得在配置文件里详细写写:
代码语言:TXT

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://192.168.1.100:11434", // 填你家 Ollama 的 IP
        "apiKey": "ollama-local",
        "api": "ollama",
        "models": [
          {
            "id": "glm-4.7-flash",
            "name": "智谱轻量版",
            "contextWindow": 32768,
            "maxTokens": 8192,
            "reasoning": false,
            "cost": { "input": 0, "output": 0 }
          },
          {
            "id": "deepseek-r1:32b",
            "name": "深度求索 R1",
            "contextWindow": 131072,
            "reasoning": true // 开启思考模式
          }
        ]
      }
    }
  }
}

1.4 特别注意:千万别加 /v1 路径

Ollama 给了两种接口,一种是它自己的原生 API,一种是兼容 OpenAI 的。OpenClaw 强烈建议用原生的。如果你手欠加了 /v1,调用工具时可能会出一堆乱码。
正确:{ "baseUrl": "http://localhost:11434" }
错误:{ "baseUrl": "http://localhost:11434/v1" }

1.5 进阶小贴士

OpenClaw 挺聪明的,它会根据名字识别推理能力。如果名字里有 r1reasoning,它就能开启分步思考。另外,如果你要处理长文档,记得把 contextWindow 调大一点,默认可能只有 4K,但很多模型其实支持到 128K。

1.6 出错排查

第二部分:官方正统 —— OpenAI 两种接入姿势

2.1 到底选哪种?

OpenAI 给不同的人准备了两条路:

  • API 密钥模式:适合开发者和公司,用多少算多少钱,前缀是 openai/
  • Codex 订阅模式:适合有 ChatGPT Plus 的个人用户,包月白嫖,前缀是 openai-codex/
    这两条路各走各的,别指望能混着用。

2.2 生产环境首选 API 模式

去官网后台拿个 Key,然后在 OpenClaw 里跑 openclaw onboard --auth-choice openai-api-key。想玩得专业点,可以开启 WebSocket 预热来减少首字延迟,或者打开服务器端的上下文压缩,省得长对话太占空间。

2.3 个人尝鲜的 Codex 模式

直接通过网页登录,引用模型时加个 -codex。好处是不用算计 Token 消耗,适合没事瞎捣鼓。

2.4 传输方式

OpenClaw 默认选 "auto",也就是能连 WebSocket 就不走 SSE。你也可以在参数里硬性指定。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第三部分:大厂级火力 —— NVIDIA 模型集成

3.1 它的优势在哪?

老黄家的 NGC 平台给的东西很实在:有优化的 Nemotron,有自研的 NeMo。最关键的是,它家默认就给 13 万个 Token 的超长上下文,而且 API 跟 OpenAI 完全兼容。

3.2 怎么配置?

去 NGC 官网弄个 nvapi- 开头的 Key,设好环境变量。在 OpenClaw 里把基地址指到 NVIDIA 的集成接口上,然后就能用 llama-3.1-nemotron-70b 这种大家伙了。

第四部分:中文语境天花板 —— Moonshot AI

4.1 Kimi 也有两条线

Moonshot 家分成了通用版和编程版。通用版处理长文本很强,名字前缀是 moonshot/;编程版搞代码更专业,前缀是 kimi-coding/。千万记住,这两家的 Key 是不互通的,得分别配置。

4.2 怎么开启“头脑风暴”?

Kimi 最好玩的是它的思考模式。你在 OpenClaw 里打个 /think on 就能让它开启原生思考。配置文件里也可以设置默认开启,让它的回答更有深度。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

第五部分:高效托管 —— OpenCode 两个库

5.1 Zen 目录 vs Go 目录

OpenCode 搞了两个库:Zen 目录存的是全球顶尖的闭源货(像 Claude-Opus、GPT-5 系列);Go 目录放的是国产之光。虽然它们共用一个 Key,但路由是分开的,配置时要注意前缀区别。

5.2 混合使用

你可以设置让 OpenClaw 主用 Claude,如果挂了就自动降级切换到国产模型,这种“备胎”机制在生产环境特别好用。

第六部分:全能代理 —— OpenRouter

6.1 它的核心价值

OpenRouter 就像是个中转站。你只需要一个 Key,就能调上百个模型。它会帮你比价,选出最划算的渠道,而且 API 格式完全统一。

6.2 引用格式

在 OpenClaw 里引用它家的模型也很直观,就是 openrouter/提供商/模型名,比如想用 Claude 就搜 openrouter/anthropic/claude-sonnet-4-5
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

总结:怎么选最合适?

  • 追求绝对隐私:选 Ollama
  • 追求大厂稳定:选 NVIDIAOpenCode Go
  • 追求最强智商:选 OpenAIOpenCode Zen
  • 追求中文长文本:选 Kimi
  • 什么都想试试:选 OpenRouter
    OpenClaw 厉害的地方就在于:你可以在同一个系统里把这些杂七杂八的平台全揉在一起,让 AI 代理根据你的任务去“搬救兵”。赶紧动手搭一个属于你的 AI 帝国吧!
    手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐