上周帮朋友调项目,他的 Claude API 三天两头超时,换个中转站又要改一遍 baseURL,改完发现新渠道不支持他要的模型。后来我给他搭了个本地网关,现在切渠道只要点一下按钮,代码一行都不用动。

这套方案用 OpenClaw + CC Switch,前者是本地 API 代理,后者管理你的所有中转站账号。配置完之后,所有 AI 接口请求都走本地转发,想换渠道就在界面上点一下。本文记录完整配置流程,从安装到跑通大概 10 分钟。

工具准备:OpenClaw(本地网关)+ CC Switch(渠道管理)+ 一个能用的中转站账号。本文用 88API 演示,因为它支持 Claude/GPT/Gemini 用同一个 Key 切换,配置起来省事。

第一步:装 CC Switch,把中转站账号加进去

CC Switch 是个桌面应用,专门管理 AI 中转站账号。你可以把多个供应商的 API Key 都配进去,然后一键切换默认渠道。

下载安装

去 GitHub Release 页面下载对应系统的安装包:

<https://github.com/farion1231/cc-switch/releases>

下载后按常规方式安装,无需额外环境依赖。

添加供应商

  1. 打开 CC Switch,进入「供应商管理」
  2. 点「添加供应商」,填三个信息:
    • 供应商名称:自定义标识,比如 88API
    • API Base URLhttps://api.88api.shop
    • API Key:去 88api.shop 注册后在控制台创建密钥,复制过来
  3. 点「确认添加」,然后在列表里找到这个供应商,点「设为默认」

这步做完之后:你的中转站账号已经被 CC Switch 纳管了,后面 OpenClaw 会从这里读取渠道配置。

⚠️ 如果你有多个中转站账号,重复步骤 2-3 依次加进去。CC Switch 支持同时管理多个供应商,切换时直接点按钮。

第二步:装 OpenClaw,关联 CC Switch

OpenClaw 是本地网关的核心,它会在你电脑上起一个服务,监听某个端口,所有发到这个端口的 AI 请求都会被转发到 CC Switch 配置的渠道。

环境检查

OpenClaw 基于 Node.js,确认一下环境(要求 ≥ 18.x):

# 检查 Node.js 版本,输出版本号说明环境正常
node -v

# 检查 npm 版本
npm -v

如果两条命令都正常输出版本号,说明环境就绪。

全局安装 OpenClaw

# 通过 npm 全局安装最新版本的 OpenClaw
npm install -g openclaw@latest

# 安装完成后验证是否成功
openclaw --version

终端输出版本号即代表安装成功。

执行初始化引导

# 启动初始化引导流程
openclaw onboard

执行后,终端会进入交互式配置流程,按提示依次完成:

  • 选择 Chat 模式:根据提示选择对应配置项
  • 配置默认模型:随便选一个,后面可以改
  • 关联 CC Switch:将 CC Switch 中配置好的供应商渠道与 OpenClaw 进行绑定

这步做完之后:OpenClaw 已经知道去哪读你的中转站配置了,接下来启动服务就能用。

⚠️ 初始化时选的模型不重要,后面调用接口时可以在代码里指定任意模型,只要你的中转站支持就行。

第三步:启动网关,验证能不能用

启动本地 Gateway

# 在 18789 端口启动 Gateway 服务
openclaw gateway --port 18789

启动成功后,终端会输出服务运行状态信息。此时 OpenClaw 已在本地监听 18789 端口,所有发往该端口的 AI 接口请求都会经由 CC Switch 配置的渠道进行转发。

访问 Web 控制台

打开浏览器,访问 http://127.0.0.1:18789/,你会看到 OpenClaw 的可视化控制台。控制台提供了请求日志、渠道状态、模型列表等管理功能,方便你实时监控接口调用情况。

接口调用验证

用 openai 官方 SDK,将 base_url 指向本地 Gateway 地址即可完成接入,无需修改任何业务逻辑代码:

from openai import OpenAI

# 初始化客户端,将 base_url 指向本地 OpenClaw Gateway
# api_key 填写你在 CC Switch 中配置的供应商密钥
client = OpenAI(
    api_key="your-api-key-here",
    base_url="<http://127.0.0.1:18789/v1>"  # 本地 Gateway 地址
)

# 发起一次对话请求,model 填写 CC Switch 中配置的模型名称
response = client.chat.completions.create(
    model="claude-opus-4-6",   # 根据你的供应商支持情况填写
    messages=[
        {"role": "user", "content": "你好,请介绍一下你自己。"}
    ]
)

# 输出 AI 的回复内容
print(response.choices[0].message.content)

如果终端正常输出 AI 的回复,说明整条链路已经打通:

你的代码 → OpenClaw Gateway → CC Switch → 中转站 → AI 模型

到这里最难的部分已经过了。后面想换渠道,去 CC Switch 里点一下「设为默认」就行,代码不用动。

进阶:多渠道动态切换

CC Switch 支持在不重启 Gateway 的情况下动态切换默认渠道,这在以下场景中非常实用:

  • 渠道故障切换:某个中转站出现异常时,一键切换到备用渠道,服务不中断
  • 按需选择模型:不同供应商支持不同的模型列表,按项目需求灵活选择
  • 成本控制:在多个渠道之间按价格策略分配流量,降低整体调用成本

操作方式极简:在 CC Switch 的供应商列表中,直接点击目标供应商的「设为默认」按钮,切换立即生效,无需重启任何服务。


现在你的 AI 接口调用已经走本地网关了。去打开一个项目,把之前直连 API 的 base_url 改成 http://127.0.0.1:18789/v1,试试能不能正常跑。

这套配置最大的好处是接口层和业务层彻底解耦了。某个中转站挂了?在 CC Switch 里切到备用渠道,服务不中断。想试试 GPT-4o 和 Claude 哪个效果好?改一下 model 参数就行,88API 用同一个 Key 就能调这些模型。

如果配置过程中遇到端口被占用、401 认证失败之类的问题,去 OpenClaw 的控制台看请求日志,基本都能定位到是哪一步配错了。有问题留言贴一下错误信息,我帮你看看。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐