作为 AI 界的领头羊,OpenAI 的 GPT 系列(哪怕是未来的 gpt-5.4)一直都是大伙儿做智能应用的首选。OpenClaw 这个 AI 代理系统做得挺地道,它不仅能让你用传统的 API Key 接入,还搞了个独门绝技:支持直接通过 Codex 订阅(也就是登录你的 ChatGPT 账号) 来调用模型。这下你可以根据自己的钱包和使用习惯,随便挑哪种方式最划算。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
这篇文章就来拆解下这两条路线怎么走,顺便带你看看 OpenClaw 针对 OpenAI 搞的那些硬核优化,像什么连接预热、排队优先级和长对话压缩,全是干货。

选哪种认证方式?看你的需求

第一种:OpenAI API 密钥(适合搞生产或者算细账的朋友)

谁适合用:开发者或者企业,想用多少付多少钱,自己手里有 OpenAI 平台账号的。

怎么配:
  1. 先去 OpenAI 管理后台把你的 API Key 拿到手。
  2. 跑一下这个交互命令:
    openclaw onboard --auth-choice openai-api-key
    
    或者直接一行代码搞定:
    openclaw onboard --openai-api-key "你的密钥"
    

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
3. 在 openclaw.json 这个文件里把默认模型改了:

{
  "env": { "OPENAI_API_KEY": "sk-..." },
  "agents": { 
    "defaults": { 
      "model": { "primary": "openai/gpt-5.4" } 
    } 
  }
}

📌 写模型名注意:所有通过 API 接入的模型,前缀都要写成 openai/,比如 openai/gpt-5.4 之类的。

第二种:Codex 订阅(直接蹭 ChatGPT 账号,个人用户最爱)

谁适合用:已经开了 ChatGPT Plus 或者 Codex 订阅的小伙伴,想直接用账号里的权益,不想再额外给 API 充钱的。

怎么配:
  1. 用 OAuth 登录你的账号就行:
    openclaw onboard --auth-choice openai-codex
    
    或者用这行强行跳出登录:
    openclaw models auth login --provider openai-codex
    

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!
2. 配置默认模型的时候,前缀得变一下:

{
  "agents": { 
    "defaults": { 
      "model": { "primary": "openai-codex/gpt-5.4" } 
    } 
  }
}

🔑 划重点

进阶玩法:OpenClaw 针对 OpenAI 的深度调优

1. 聪明的传输协议(WebSocket 还是 SSE 自动换)

OpenClaw 默认会开启“自动档”:

  • 优先去连 WebSocket,毕竟这玩意儿速度快,响应快。
  • 万一连不上,它会自动退到 SSE 模式,保证你能正常说话。
    你也可以自己定死用哪种:
{
  "agents": {
    "defaults": {
      "models": {
        "openai/gpt-5.4": {
          "params": { "transport": "websocket" } 
        }
      }
    }
  }
}

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

2. 连接预热(仅限 API 模式)

为了让你发消息的时候感觉不到卡顿,OpenClaw 会默认提前热身 WebSocket

// 觉得费流量想关了它
"params": { "openaiWsWarmup": false }
// 保持开启(不设的话默认就是这个)
"params": { "openaiWsWarmup": true }

3. 给任务加急(优先级处理)

如果你在跑一些不能等的重要任务,可以跟系统申请“插队”:

"params": { "serviceTier": "priority" }

可选的参数有:auto(默认看心情)、defaultflex 或者是 priority(加急)。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

4. 自动瘦身(服务器端上下文压缩)

聊得天长地久了,Token 太多怎么办?OpenClaw 会帮你在服务器端自动把内容压减:

  • 默认会帮你存着对话状态。
  • 只要对话内容占到上限的 70%,它就会自动启动压缩指令,把冗余信息剔除。
    你想自己定压缩时机也行:
"params": {
  "responsesServerCompaction": true,
  "responsesCompactThreshold": 120000 
}

💡 记得哦,这个省钱省空间的技能只有 openai/* 开头的模型(走 Responses API 的)才有,Codex 订阅模式是用不了的。
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

给你支几招

用在哪儿 建议选哪种
公司项目、并发高、得算成本 API 密钥模式 + 开启 priority 优先队列
个人写代码、已经有 Plus 账号 Codex 订阅模式(省心,不用管 Key)
话特别多、长篇大论(过 10 万字) API 密钥模式 + 开启服务器自动压缩
追求零延迟交互(比如做语音) API 密钥模式 + WebSocket + 开启预热
手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定!

聊到最后

OpenClaw 对 OpenAI 的支持可不是随随便便接个口。它搞的这套双认证系统非常照顾不同身份的用户,再加上那一堆针对性能的优化,真的能让 GPT-5.4 跑出飞一般的效率。
别光看着,赶紧上手试试:

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐