手把手教你在 OpenClaw 玩转各大主流大模型:从家里的 Ollama 到云端的 OpenRouter 全攻略
手把手教你在 OpenClaw 玩转各大主流大模型:从家里的 Ollama 到云端的 OpenRouter 全攻略
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
现在的 AI 圈子可谓百花齐放,开发者和玩家们的选择权也越来越大。你可以躲在家里跑离线的开源模型,也可以花钱买全球最顶尖的闭源模型;能守着一家用,也能通过聚合网关通吃几十家。不过,这种丰富性也带来了集成的麻烦——每个平台都有自己的门槛、API 格式、模型起名方式和一套潜规则。
OpenClaw 就是为了打破这些条条框框而生的 AI 代理系统。它把底层的差异全抹平了,还给几个主流平台准备了现成的深度优化方案。咱们今天就系统地聊聊怎么在 OpenClaw 里把这六个核心渠道给配置利索:
- Ollama —— 喜欢玩本地开源模型的首选。
- OpenAI —— 官方 GPT 系列(支持 Key 模式和 Codex 订阅模式)。
- NVIDIA —— 追求高性能的企业级 Nemotron 和 NeMo。
- Moonshot AI —— Kimi 通用版和 Kimi Coding 编程版。
- OpenCode —— Zen 和 Go 双目录架构下的多模型托管。
- OpenRouter —— 一个密钥搞定百家模型的聚合神具。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第一部分:本地折腾派 —— Ollama 深度集成
1.1 为什么要选 Ollama?
Ollama 是目前本地跑大模型最火的工具,它的优点非常硬核:
- 隐私保密:所有对话都在本地处理,不用担心数据被传到网上。
- 白嫖到底:除了费点电和显卡,一分钱 API 费都不用掏。
- 一键运行:一个命令就能拉下几十个开源模型。
- 不挑系统:不管是苹果 M 系列芯片还是普通 Windows/Linux 都能丝滑运行。
对于个人开发者或者对数据安全有洁癖的朋友来说,Ollama 简直就是完美的“私人沙盒”。
1.2 怎么装、怎么玩?
安装 Ollama
去官网下载适合你系统的安装包,装完之后 Ollama 会在后台偷偷运行(默认守在 127.0.0.1:11434 端口)。
把模型拉回家
代码语言:TXT
# 想聊中文推荐这个
ollama pull glm-4.7-flash
# 想写代码推荐这个
ollama pull qwen2.5-coder:32b
# 玩玩老外的最新模型
ollama pull llama3.3
# 看看家里存了哪些货
ollama list
提示:模型名字后面带个冒号可以选不同的大小,比如 :32b 表示 320 亿参数的版本。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
1.3 在 OpenClaw 里怎么接?
OpenClaw 提供了两种接头方式:全自动发现(懒人必备)和手动精细化配置。
法子一:懒人自动模式
你只需要随手设一个环境变量:
代码语言:TXT
export OLLAMA_API_KEY="ollama-local"
然后跑这个命令:
代码语言:TXT
openclaw onboard --auth-choice skip
OpenClaw 就会自己顺着端口去找 Ollama,读取所有本地模型列表,甚至连模型的上下文窗口大小都能帮你查好。如果模型名字里带了 r1 或者 think,它还会自动开启推理模式,成本直接按 0 计算。
法子二:精细化手动配置
如果你的 Ollama 跑在别的机器上,或者你想改一些特殊参数,就得在配置文件里详细写写:
代码语言:TXT
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://192.168.1.100:11434", // 填你家 Ollama 的 IP
"apiKey": "ollama-local",
"api": "ollama",
"models": [
{
"id": "glm-4.7-flash",
"name": "智谱轻量版",
"contextWindow": 32768,
"maxTokens": 8192,
"reasoning": false,
"cost": { "input": 0, "output": 0 }
},
{
"id": "deepseek-r1:32b",
"name": "深度求索 R1",
"contextWindow": 131072,
"reasoning": true // 开启思考模式
}
]
}
}
}
}
1.4 特别注意:千万别加 /v1 路径
Ollama 给了两种接口,一种是它自己的原生 API,一种是兼容 OpenAI 的。OpenClaw 强烈建议用原生的。如果你手欠加了 /v1,调用工具时可能会出一堆乱码。
正确:{ "baseUrl": "http://localhost:11434" }
错误:{ "baseUrl": "http://localhost:11434/v1" }
1.5 进阶小贴士
OpenClaw 挺聪明的,它会根据名字识别推理能力。如果名字里有 r1、reasoning,它就能开启分步思考。另外,如果你要处理长文档,记得把 contextWindow 调大一点,默认可能只有 4K,但很多模型其实支持到 128K。
1.6 出错排查
- 找不到模型?检查
OLLAMA_API_KEY设了没。 - 连不上?看看
ollama serve到底开了没。 - 反映太慢?换个参数小点的模型试试,别硬撑。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第二部分:官方正统 —— OpenAI 两种接入姿势
2.1 到底选哪种?
OpenAI 给不同的人准备了两条路:
- API 密钥模式:适合开发者和公司,用多少算多少钱,前缀是
openai/。 - Codex 订阅模式:适合有 ChatGPT Plus 的个人用户,包月白嫖,前缀是
openai-codex/。
这两条路各走各的,别指望能混着用。
2.2 生产环境首选 API 模式
去官网后台拿个 Key,然后在 OpenClaw 里跑 openclaw onboard --auth-choice openai-api-key。想玩得专业点,可以开启 WebSocket 预热来减少首字延迟,或者打开服务器端的上下文压缩,省得长对话太占空间。
2.3 个人尝鲜的 Codex 模式
直接通过网页登录,引用模型时加个 -codex。好处是不用算计 Token 消耗,适合没事瞎捣鼓。
2.4 传输方式
OpenClaw 默认选 "auto",也就是能连 WebSocket 就不走 SSE。你也可以在参数里硬性指定。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第三部分:大厂级火力 —— NVIDIA 模型集成
3.1 它的优势在哪?
老黄家的 NGC 平台给的东西很实在:有优化的 Nemotron,有自研的 NeMo。最关键的是,它家默认就给 13 万个 Token 的超长上下文,而且 API 跟 OpenAI 完全兼容。
3.2 怎么配置?
去 NGC 官网弄个 nvapi- 开头的 Key,设好环境变量。在 OpenClaw 里把基地址指到 NVIDIA 的集成接口上,然后就能用 llama-3.1-nemotron-70b 这种大家伙了。
第四部分:中文语境天花板 —— Moonshot AI
4.1 Kimi 也有两条线
Moonshot 家分成了通用版和编程版。通用版处理长文本很强,名字前缀是 moonshot/;编程版搞代码更专业,前缀是 kimi-coding/。千万记住,这两家的 Key 是不互通的,得分别配置。
4.2 怎么开启“头脑风暴”?
Kimi 最好玩的是它的思考模式。你在 OpenClaw 里打个 /think on 就能让它开启原生思考。配置文件里也可以设置默认开启,让它的回答更有深度。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
第五部分:高效托管 —— OpenCode 两个库
5.1 Zen 目录 vs Go 目录
OpenCode 搞了两个库:Zen 目录存的是全球顶尖的闭源货(像 Claude-Opus、GPT-5 系列);Go 目录放的是国产之光。虽然它们共用一个 Key,但路由是分开的,配置时要注意前缀区别。
5.2 混合使用
你可以设置让 OpenClaw 主用 Claude,如果挂了就自动降级切换到国产模型,这种“备胎”机制在生产环境特别好用。
第六部分:全能代理 —— OpenRouter
6.1 它的核心价值
OpenRouter 就像是个中转站。你只需要一个 Key,就能调上百个模型。它会帮你比价,选出最划算的渠道,而且 API 格式完全统一。
6.2 引用格式
在 OpenClaw 里引用它家的模型也很直观,就是 openrouter/提供商/模型名,比如想用 Claude 就搜 openrouter/anthropic/claude-sonnet-4-5。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
总结:怎么选最合适?
- 追求绝对隐私:选 Ollama。
- 追求大厂稳定:选 NVIDIA 或 OpenCode Go。
- 追求最强智商:选 OpenAI 或 OpenCode Zen。
- 追求中文长文本:选 Kimi。
- 什么都想试试:选 OpenRouter。
OpenClaw 厉害的地方就在于:你可以在同一个系统里把这些杂七杂八的平台全揉在一起,让 AI 代理根据你的任务去“搬救兵”。赶紧动手搭一个属于你的 AI 帝国吧!
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
更多推荐


所有评论(0)