玩转 OpenClaw:带你吃透 OpenAI API 密钥与 Codex 订阅两种玩法
玩转 OpenClaw:带你吃透 OpenAI API 密钥与 Codex 订阅两种玩法
作为 AI 界的领头羊,OpenAI 的 GPT 系列(哪怕是未来的 gpt-5.4)一直都是大伙儿做智能应用的首选。OpenClaw 这个 AI 代理系统做得挺地道,它不仅能让你用传统的 API Key 接入,还搞了个独门绝技:支持直接通过 Codex 订阅(也就是登录你的 ChatGPT 账号) 来调用模型。这下你可以根据自己的钱包和使用习惯,随便挑哪种方式最划算。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
这篇文章就来拆解下这两条路线怎么走,顺便带你看看 OpenClaw 针对 OpenAI 搞的那些硬核优化,像什么连接预热、排队优先级和长对话压缩,全是干货。
选哪种认证方式?看你的需求
第一种:OpenAI API 密钥(适合搞生产或者算细账的朋友)
谁适合用:开发者或者企业,想用多少付多少钱,自己手里有 OpenAI 平台账号的。
怎么配:
- 先去 OpenAI 管理后台把你的 API Key 拿到手。
- 跑一下这个交互命令:
或者直接一行代码搞定:openclaw onboard --auth-choice openai-api-keyopenclaw onboard --openai-api-key "你的密钥"
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
3. 在 openclaw.json 这个文件里把默认模型改了:
{
"env": { "OPENAI_API_KEY": "sk-..." },
"agents": {
"defaults": {
"model": { "primary": "openai/gpt-5.4" }
}
}
}
📌 写模型名注意:所有通过 API 接入的模型,前缀都要写成
openai/,比如openai/gpt-5.4之类的。
第二种:Codex 订阅(直接蹭 ChatGPT 账号,个人用户最爱)
谁适合用:已经开了 ChatGPT Plus 或者 Codex 订阅的小伙伴,想直接用账号里的权益,不想再额外给 API 充钱的。
怎么配:
- 用 OAuth 登录你的账号就行:
或者用这行强行跳出登录:openclaw onboard --auth-choice openai-codexopenclaw models auth login --provider openai-codex
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
2. 配置默认模型的时候,前缀得变一下:
{
"agents": {
"defaults": {
"model": { "primary": "openai-codex/gpt-5.4" }
}
}
}
🔑 划重点:
- 走 API 的叫
openai/gpt-5.4 - 走订阅的叫
openai-codex/gpt-5.4
这两者完全不是一回事,千万别写混了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
进阶玩法:OpenClaw 针对 OpenAI 的深度调优
1. 聪明的传输协议(WebSocket 还是 SSE 自动换)
OpenClaw 默认会开启“自动档”:
- 优先去连 WebSocket,毕竟这玩意儿速度快,响应快。
- 万一连不上,它会自动退到 SSE 模式,保证你能正常说话。
你也可以自己定死用哪种:
{
"agents": {
"defaults": {
"models": {
"openai/gpt-5.4": {
"params": { "transport": "websocket" }
}
}
}
}
}
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
2. 连接预热(仅限 API 模式)
为了让你发消息的时候感觉不到卡顿,OpenClaw 会默认提前热身 WebSocket:
// 觉得费流量想关了它
"params": { "openaiWsWarmup": false }
// 保持开启(不设的话默认就是这个)
"params": { "openaiWsWarmup": true }
3. 给任务加急(优先级处理)
如果你在跑一些不能等的重要任务,可以跟系统申请“插队”:
"params": { "serviceTier": "priority" }
可选的参数有:auto(默认看心情)、default、flex 或者是 priority(加急)。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
4. 自动瘦身(服务器端上下文压缩)
聊得天长地久了,Token 太多怎么办?OpenClaw 会帮你在服务器端自动把内容压减:
- 默认会帮你存着对话状态。
- 只要对话内容占到上限的 70%,它就会自动启动压缩指令,把冗余信息剔除。
你想自己定压缩时机也行:
"params": {
"responsesServerCompaction": true,
"responsesCompactThreshold": 120000
}
💡 记得哦,这个省钱省空间的技能只有
openai/*开头的模型(走 Responses API 的)才有,Codex 订阅模式是用不了的。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
给你支几招
| 用在哪儿 | 建议选哪种 |
|---|---|
| 公司项目、并发高、得算成本 | API 密钥模式 + 开启 priority 优先队列 |
| 个人写代码、已经有 Plus 账号 | Codex 订阅模式(省心,不用管 Key) |
| 话特别多、长篇大论(过 10 万字) | API 密钥模式 + 开启服务器自动压缩 |
| 追求零延迟交互(比如做语音) | API 密钥模式 + WebSocket + 开启预热 |
| 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! |
聊到最后
OpenClaw 对 OpenAI 的支持可不是随随便便接个口。它搞的这套双认证系统非常照顾不同身份的用户,再加上那一堆针对性能的优化,真的能让 GPT-5.4 跑出飞一般的效率。
别光看着,赶紧上手试试:
- 手里有 Key 的:直接跑
openclaw onboard --auth-choice openai-api-key - 有 Plus 会员的:跑
openclaw onboard --auth-choice openai-codex
把 GPT 的潜能压榨干净,就看你的了。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
更多推荐



所有评论(0)