用OpenClaw白嫖世界顶级模型,太爽了!
用OpenClaw白嫖世界顶级模型,太爽了!
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
相信大伙儿这会儿应该都已经上手 OpenClaw(也就是 Clawdbot)玩得挺嗨了吧。
现在 Lighthouse 已经把国内那几家主流的 IM 软件(像 QQ、企业微信、飞书、钉钉这些)都搞定了,直接在面板上就能一键配置。而且啊,这面板本来就支持不少热门的大模型,但如果你手头有别的第三方服务商(比如七牛云、硅基流动这种)想接进来,该咋整呢?这篇教程就是专门手把手教你咋接入这些“自定义”渠道的。
重要提醒
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
挑模型服务商的时候千万留个心眼,一定要确认你的轻量应用服务器所在的地区,是不是在人家支持的范围内,不然连不上就尴尬了。
接入自定义AI提供商
其实特简单,进到轻量应用服务器的控制台,找到应用管理,把下面提到的那些自定义模型参数填进去,点一下保存,这事儿就成了:

MiniMax
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
咱们拿 MiniMax 举个栗子,走的是 “Anthropic” 协议,用的是 MiniMax-M2.5 这个模型:
国内版的话,API Key 直接去官网后台拿就行。
{
"provider": "minimax",
"base_url": "https://api.minimaxi.com/anthropic",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}
国际版的话,Key 的获取地址稍微不一样,配置如下:
{
"provider": "minimax",
"base_url": "https://api.minimax.io/anthropic",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}
硅基流动
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
再来看看硅基流动,这个要用 “OpenAI” 协议,咱们试着用 DeepSeekv3.2 模型来配一下:
{
"provider": "siliconflow",
"base_url": "https://api.siliconflow.cn/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "deepseek-ai/DeepSeek-V3.2",
"name": "DeepSeek-V3.2"
}
}
Kimi Code
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
⚠️ 高能预警:如果你不在官方的 Kimi CLI 里乱用 Kimi Code 会员功能,很有可能被官方判定是滥用或者违规操作,到时候封号或者停权益别怪我没提醒。具体能干啥不能干啥,自己去查查使用规范。
既然要用 Kimi Code,那咱们就拿 Kimi-k2.5 这个模型打个样:
{
"provider": "kimicode",
"base_url": "https://api.kimi.com/coding",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": {
"id": "kimi-k2.5",
"name": "Kimi K2.5"
}
}
Google Gemini
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
Google 的 Gemini API 怎么搞?这里用最新的 Gemini 3 Flash 模型演示一遍:
{
"provider": "google",
"base_url": "https://generativelanguage.googleapis.com/v1beta/openai",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "gemini-3-flash-preview",
"name": "Gemini 3 Flash"
}
}
OpenAI (GPT)
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
至于 OpenAI 官方的 API 文档我就不贴链接了,大家应该都熟。
咱们假设用的是最新的 GPT-5.2 模型,配置大概长这样:
{
"provider": "openai",
"base_url": "https://api.openai.com/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "gpt-5.2",
"name": "GPT-5.2"
}
}
Anthropic Claude
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
接着是 Anthropic Claude 的 API,咱们拿最新的 Claude Opus 4.6 模型来做个示范:
{
"provider": "anthropic",
"base_url": "https://api.anthropic.com",
"api": "anthropic-messages",
"api_key": "your-api-key-here",
"model": {
"id": "claude-opus-4-6",
"name": "Claude Opus 4.6"
}
}
xAI Grok
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
马斯克的 xAI Grok API(它是兼容 OpenAI 协议的),如果用 Grok 4.1 模型,填法是这样的:
{
"provider": "xai",
"base_url": "https://api.x.ai/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "grok-4.1",
"name": "Grok 4.1"
}
}
OpenRouter
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
最后看看 OpenRouter API(同样兼容 OpenAI 协议),这里选个限时免费的 NVIDIA: Nemotron 3 Nano 30B A3B 模型来试试:
{
"provider": "openrouter",
"base_url": "https://openrouter.ai/api/v1",
"api": "openai-completions",
"api_key": "your-api-key-here",
"model": {
"id": "nvidia/nemotron-3-nano-30b-a3b:free",
"name": "NVIDIA: Nemotron 3 Nano 30B A3B"
}
}
通用配置模板
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
假如上面列的一圈都不是你想用的,也没事。只要你的模型兼容 OpenAI 或者 Anthropic 的协议,直接套用下面这个万能模板就行:
{
"provider": "provider_name",
"base_url": "baseurl",
"api": "API协议",
"api_key": "your-api-key-here",
"model": {
"id": "model_id",
"name": "model_name"
}
}
参数说明
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
| 参数 | 说明 | 示例 |
|---|---|---|
provider |
提供商名字,随你心情起一个 | siliconflow |
base_url |
API 的接口地址 | https://api.siliconflow.cn/v1 |
api |
协议类型: openai-completions 对应 OpenAI 格式; anthropic-messages 对应 Anthropic 格式 |
openai-completions |
api_key |
商家给你的 API 密钥 | sk-xxx |
model.id |
模型的唯一 ID 标识 | deepseek-ai/DeepSeek-V3.2 |
model.name |
面板上显示的名字 | DeepSeek-V3.2 |
常见问题
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
报错(错误码相关)
遇到报错先别慌,99% 的情况你长按翻译一下那个错误码,基本就能知道是咋回事了。

常见错误码
这里的错误码可能每家服务商给的稍微有点不一样,大家凑合参考一下。
| 错误码 | 原因 | 解决方案 |
|---|---|---|
| 401 not authorized | Key 填错了 | 赶紧去服务商后台检查你填的 Key 对不对 |
| 429/500 | 没钱了 | 去充值,或者再次检查下 Key 是否正确 |
| rate_limit | 速度被限制了 | 换个更猛的服务商,或者联系客服加钱买配额。注:RPM 是每分钟请求数,TPM 是每分钟处理 Token 数。 |
| 404 | baseurl 填错了 | 翻翻文档,找找兼容 OpenAI 或 Anthropic 的那个 baseurl 到底填啥 |
| 403 | 服务器地区不支持 | 你的服务器所在地不行,换个地儿或者换个模型吧 |
模型回复慢(响应慢)
手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定!
如果你感觉回话特别慢,看看是不是服务器在国外,但你用的却是国内的模型接口?这种跨国网路肯定会卡的。
另外,如果你选的是那种“深度思考”模型,它要想半天,肯定慢,嫌慢就换成不思考的或者思考快的模型。
Token消耗过快
OpenClaw 为了让干活更利索、更准确,每次跟模型对话都会带上一大堆上下文信息,所以 Token 烧得会比较快。大家用的时候多盯着点余额和计费单,别刷爆了。
更多推荐

所有评论(0)