【GitHub项目推荐--OpenClaw Zero Token:零成本AI模型访问的革命性解决方案】⭐
是一个基于OpenClaw项目的创新分支,其核心使命是通过浏览器自动化技术捕获会话凭证,彻底消除使用AI模型时的API令牌成本,实现免费访问主流AI平台。该项目由开发者linuxhsj创建并维护,旨在为开发者、研究者和爱好者提供一个无需支付API费用即可使用ChatGPT、Claude、Gemini、DeepSeek、Qwen、Kimi、豆包、智谱清言、Grok、Manus等众多AI模型的统一
为什么选择 Zero Token?
| 传统方式 | Zero Token 方式 |
|---|---|
| 需要购买 API Token | 完全免费 |
| 按调用次数计费 | 无使用限制 |
| 需要绑定信用卡 | 仅需网页登录 |
| Token 可能泄露 | 凭证本地存储 |
支持的平台
| 平台 | 状态 | 模型 |
|---|---|---|
| DeepSeek | ✅ 已测试 | deepseek-chat, deepseek-reasoner |
| 千问国际版 (Qwen International) | ✅ 已测试 | Qwen 3.5 Plus, Qwen 3.5 Turbo |
| 千问国内版 (Qwen 国内版) | ✅ 已测试 | Qwen 3.5 Plus, Qwen 3.5 Turbo |
| Kimi | ✅ 已测试 | Moonshot v1 8K, 32K, 128K |
| Claude Web | ✅ 已测试 | claude-sonnet-4-6, claude-opus-4-6, claude-haiku-4-6 |
| 豆包 (Doubao) | ✅ 已测试 | doubao-seed-2.0, doubao-pro |
| ChatGPT Web | ✅ 已测试 | GPT-4, GPT-4 Turbo |
| Gemini Web | ✅ 已测试 | Gemini Pro, Gemini Ultra |
| Grok Web | ✅ 已测试 | Grok 1, Grok 2 |
| GLM Web (智谱清言) | ✅ 已测试 | glm-4-Plus, glm-4-Think |
| GLM Web (国际版) | ✅ 已测试 | GLM-4 Plus, GLM-4 Think |
| Manus API | ✅ 已测试 | Manus 1.6, Manus 1.6 Lite(API key,免费额度) |
工具调用支持
当前支持的模型均可调用本地工具(如 exec、read_file、list_dir、browser、apply_patch 等),从而执行命令、读写工作区文件、进行网页自动化等。
| 提供商类型 | 工具支持 | 说明 |
|---|---|---|
| Web(DeepSeek、千问、Kimi、Claude、豆包、GLM、Grok 等) | ✅ | 在 system 中注入 XML 工具说明,流式解析 <tool_call> 并在本地执行。 |
| ChatGPT Web / Gemini Web / Manus API | ✅ | 同样通过工具说明 + 多轮上下文 + <tool_call> 解析实现。 |
| OpenRouter / OpenAI 兼容 API | ✅ | 使用原生 tools / tool_calls 接口。 |
| Ollama | ✅ | 使用原生 /api/chat 的 tools。 |
简介
OpenClaw Zero Token 是一个基于OpenClaw项目的创新分支,其核心使命是通过浏览器自动化技术捕获会话凭证,彻底消除使用AI模型时的API令牌成本,实现免费访问主流AI平台。该项目由开发者linuxhsj创建并维护,旨在为开发者、研究者和爱好者提供一个无需支付API费用即可使用ChatGPT、Claude、Gemini、DeepSeek、Qwen、Kimi、豆包、智谱清言、Grok、Manus等众多AI模型的统一网关。
核心定位:OpenClaw Zero Token的核心价值在于打破AI模型访问的经济壁垒。传统AI模型使用需要购买API令牌、按调用次数付费,且存在令牌泄露风险。该项目通过创新的浏览器自动化技术,直接模拟用户登录行为,捕获并复用Web会话凭证,让用户能够零成本使用这些高级AI服务。项目采用"一次配置,永久免费"的设计理念,支持工具调用、多模型并行查询等高级功能,为AI应用开发提供了全新的可能性。
技术背景:项目源于对AI模型访问成本不断上升的痛点回应。随着各大AI平台推出付费API服务,个人开发者和研究者的使用成本显著增加。OpenClaw Zero Token通过逆向工程各平台的Web接口,利用Playwright浏览器自动化工具捕获登录后的Cookie和Bearer Token,然后使用这些凭证直接调用平台的内部API,绕过了官方的付费API通道。
项目状态:目前OpenClaw Zero Token处于活跃开发阶段,最新版本持续更新中。项目已获得12,866次提交,拥有活跃的开发者社区。截至2026年3月,项目已稳定支持10多个主流AI平台,包括国际版和中国版服务,并持续扩展对新平台的支持。
主要功能
1. 零成本AI模型访问
OpenClaw Zero Token最核心的功能是提供完全免费的AI模型访问通道:
支持平台全面覆盖:
-
DeepSeek:支持deepseek-chat和deepseek-reasoner模型
-
Qwen系列:同时支持国际版(chat.qwen.ai)和中国版(qianwen.com),后者提供深度搜索、代码助手、图像生成等额外功能
-
Kimi:支持Moonshot v1系列的8K、32K、128K上下文版本
-
Claude Web:支持claude-sonnet-4-6、claude-opus-4-6、claude-haiku-4-6全系列模型
-
豆包(Doubao):支持doubao-seed-2.0和doubao-pro模型
-
ChatGPT Web:支持GPT-4和GPT-4 Turbo模型
-
Gemini Web:支持Gemini Pro和Gemini Ultra模型
-
Grok Web:支持Grok 1和Grok 2模型
-
智谱清言(GLM):支持国际版和中国版的GLM-4 Plus、GLM-4 Think模型
-
Manus API:支持Manus 1.6和Manus 1.6 Lite模型(免费API密钥)
认证机制创新:所有Web平台均通过浏览器自动化(Playwright)进行身份验证和API访问,无需任何API令牌费用。平台标记为"已测试"的表示已经过验证可以正常工作。
2. 工具调用能力
所有支持的模型都具备调用本地工具的能力,使智能体能够执行复杂任务:
本地工具支持:
-
文件操作:exec(执行命令)、read_file(读取文件)、list_dir(列出目录)
-
浏览器自动化:apply_patch(应用补丁)等浏览器控制功能
-
工作空间限制:智能体的文件访问仅限于配置的工作空间目录,确保系统安全
技术实现差异:
-
Web平台模型:通过XML格式的工具指令在系统提示中实现,流解析器提取
<tool_call>标签并在本地执行 -
ChatGPT Web/Gemini Web/Manus API:采用相同的方法:工具指令+多轮上下文+
<tool_call>解析 -
OpenRouter/OpenAI兼容API:支持原生tools/tool_calls API
-
Ollama:支持原生的
/api/chat工具接口
3. AskOnce多模型并行查询
项目提供了独特的"一次提问,获取所有AI模型答案"功能:
并行查询机制:用户可以一次性向所有已配置的AI模型发送相同的问题,系统会并行调用各个模型并收集响应
结果对比视图:所有模型的回答会在同一个界面中展示,方便用户对比不同模型的响应质量、风格和准确性
效率提升:无需手动切换不同平台或重复输入相同问题,极大提高了研究和测试效率
4. 统一的网关接口
OpenClaw Zero Token提供了标准化的API网关,统一了不同AI平台的接口差异:
RESTful API:提供符合OpenAI兼容格式的/v1/chat/completions端点,方便现有应用无缝迁移
Web UI界面:基于Lit 3.x构建的现代化Web聊天界面,支持模型切换、会话管理和历史记录
CLI/TUI工具:命令行界面和终端用户界面,满足不同用户的使用习惯
多通道支持:支持Telegram等多种消息通道,方便集成到现有工作流中
5. 智能会话管理
项目实现了先进的会话管理和凭证维护机制:
凭证自动捕获:通过浏览器自动化技术自动捕获登录后的Cookie、Bearer Token和User-Agent
本地安全存储:所有凭证安全存储在本地auth.json文件中,永远不会提交到Git仓库
会话过期处理:虽然Web会话可能定期过期,但系统提供了简单的重新登录流程
多平台统一管理:通过统一的配置界面管理所有AI平台的登录状态和访问凭证
安装与配置
环境要求与系统准备
OpenClaw Zero Token对运行环境有明确要求,确保系统兼容性是成功部署的第一步:
操作系统支持:
-
macOS:完全支持,提供专门的检查脚本
./check-mac-setup.sh -
Linux:完全支持,包括各种主流发行版
-
Windows:通过WSL2支持,为实验性状态
软件依赖:
-
Node.js:需要22.12.0或更高版本
-
pnpm:需要9.0.0或更高版本,作为包管理器
-
Chrome浏览器:必须安装,用于浏览器自动化
-
Git:用于克隆仓库和版本控制
网络要求:
-
稳定的互联网连接,用于访问各AI平台的Web服务
-
对于中国用户,访问国际平台可能需要合适的网络环境
-
对于国际用户,访问中国平台可能需要相应的网络配置
安装步骤详解
OpenClaw Zero Token提供完整的安装向导,确保用户能够顺利部署:
第一步:克隆仓库与依赖安装
# 克隆项目仓库
git clone https://github.com/linuxhsj/openclaw-zero-token.git
cd openclaw-zero-token
# 安装项目依赖
pnpm install
第二步:项目构建
构建过程包括核心代码编译和Web UI构建:
# 构建核心代码
pnpm build
# 构建Web用户界面(访问http://127.0.0.1:3001所必需)
pnpm ui:build
第三步:浏览器调试模式启动
启动Chrome浏览器调试模式,为后续登录做准备:
# 启动Chrome调试模式(在9222端口)
./start-chrome-debug.sh
此步骤会打开一个特殊的Chrome实例,用于后续的平台登录和凭证捕获。
第四步:平台登录与凭证捕获
在打开的Chrome浏览器中,依次登录各个AI平台:
-
访问并登录Qwen国际版或中国版
-
访问并登录Kimi平台
-
访问并登录Claude Web
-
访问并登录豆包(Doubao)
-
访问并登录ChatGPT Web
-
访问并登录Gemini Web
-
访问并登录Grok Web
-
访问并登录智谱清言(GLM)
注意:此步骤暂时排除DeepSeek,因为DeepSeek有特殊的登录流程。
第五步:配置向导运行
运行配置向导,将捕获的凭证写入配置文件:
# 运行配置向导
./onboard.sh
或者使用构建版本:
node openclaw.mjs onboard
在向导中,选择认证提供商(如DeepSeek Browser Login),然后选择登录模式(推荐Automated Login自动捕获凭证)。
第六步:DeepSeek特殊登录
完成上述平台配置后,专门为DeepSeek进行登录:
-
确保Chrome仍在调试模式运行
-
在配置向导中选择
deepseek-web -
按照提示完成DeepSeek的登录流程
第七步:启动网关服务
所有配置完成后,启动网关服务:
# 启动服务
./server.sh start
服务启动后,可以通过Web UI访问(默认端口3001),也可以通过API接口调用。
配置文件详解
OpenClaw Zero Token使用JSON格式的配置文件管理所有设置:
主配置文件:openclaw.json
{
"auth": {
"profiles": {
"deepseek-web:default": {
"provider": "deepseek-web",
"mode": "api_key"
}
}
},
"models": {
"providers": {
"deepseek-web": {
"baseUrl": "https://chat.deepseek.com",
"api": "deepseek-web",
"models": [
{
"id": "deepseek-chat",
"name": "DeepSeek Chat",
"contextWindow": 64000,
"maxTokens": 4096
}
]
}
}
},
"gateway": {
"port": 3001,
"auth": {
"mode": "token",
"token": "your-gateway-token"
}
}
}
认证配置文件:auth.json
存储各个平台的登录凭证,包括Cookie、Bearer Token和User-Agent。此文件包含敏感信息,被.gitignore排除在版本控制之外。
状态目录:.openclaw-zero-state/
存储本地状态信息,包括会话历史、临时文件等。此目录也不应提交到版本控制。
脚本工具概述
项目提供了多个辅助脚本,简化日常操作:
核心管理脚本:
-
start-chrome-debug.sh:启动Chrome调试模式(端口9222),用于平台登录和onboard连接 -
onboard.sh:认证配置向导,选择平台并捕获Cookie/Token -
server.sh:网关服务管理,支持start/stop/restart/status命令
环境检查脚本:
-
check-setup.sh:检查Linux环境设置 -
check-mac-setup.sh:检查macOS环境设置
问题诊断工具:
-
doctor命令:检查必需目录、创建缺失目录、修复文件权限、验证配置完整性、检测状态目录冲突
如何使用
首次使用完整流程
对于新用户,建议按照以下完整流程开始使用OpenClaw Zero Token:
第一步:环境验证
运行环境检查脚本,确保所有依赖已正确安装:
# macOS用户
./check-mac-setup.sh
# Linux用户
./check-setup.sh
脚本会检查Node.js版本、pnpm安装、Chrome可用性等关键依赖。
第二步:服务启动与登录
按照标准的6步流程启动服务:
-
构建项目:
pnpm install && pnpm build && pnpm ui:build -
启动Chrome调试:
./start-chrome-debug.sh -
登录各平台(除DeepSeek外)
-
运行配置向导:
./onboard.sh -
登录DeepSeek
-
启动服务器:
./server.sh start
第三步:访问Web界面
服务启动后,打开浏览器访问http://127.0.0.1:3001,即可看到现代化的聊天界面。界面支持暗色/亮色主题切换、会话管理、模型选择等功能。
第四步:模型测试
在聊天界面中,尝试向不同模型提问,验证所有平台是否正常工作。可以使用/models命令查看所有已配置的模型列表。
日常使用模式
一旦完成初始配置,日常使用变得非常简单:
快速启动流程:
-
启动Chrome调试模式:
./start-chrome-debug.sh -
运行配置向导(如果需要重新登录):
./onboard.sh -
启动网关服务:
./server.sh start
服务管理:
-
启动服务:
./server.sh start -
停止服务:
./server.sh stop -
重启服务:
./server.sh restart -
查看状态:
./server.sh status
模型切换:
在Web UI聊天界面中,使用/model命令切换AI模型:
-
切换到Claude Web:
/model claude-web -
切换到豆包:
/model doubao-web -
切换到DeepSeek:
/model deepseek-web -
指定具体模型:
/model claude-web/claude-sonnet-4-6
查看可用模型:
使用/models命令查看所有已配置的模型及其详细信息,包括:
-
所有可用提供商(claude-web、doubao-web、deepseek-web等)
-
每个提供商下的模型列表
-
当前活跃模型
-
模型别名和配置信息
Web界面功能详解
OpenClaw Zero Token的Web界面提供了完整的功能集:
聊天界面:
-
多模型对话:与不同AI模型进行对话
-
会话管理:创建、保存、加载不同的对话会话
-
历史记录:查看过往对话历史
-
消息格式:支持文本、代码块、表格等多种格式
模型管理:
-
模型选择器:快速切换不同AI模型
-
模型信息:查看每个模型的上下文窗口、最大令牌数等详细信息
-
提供商状态:显示每个提供商的连接状态和认证状态
设置界面:
-
网关配置:修改API端口、认证令牌等设置
-
提供商管理:添加、删除、编辑AI提供商配置
-
凭证管理:查看和更新各平台的登录凭证
-
工作空间设置:配置智能体可访问的文件目录
AskOnce功能:
-
并行查询:一次性向所有配置的模型发送相同问题
-
结果对比:并排显示所有模型的回答,方便比较
-
响应时间:显示每个模型的响应时间,评估性能差异
API接口使用
对于开发者,OpenClaw Zero Token提供了完整的API接口:
标准OpenAI兼容接口:
curl http://127.0.0.1:3001/v1/chat/completions \
-H "Authorization: Bearer YOUR_GATEWAY_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-web/deepseek-chat",
"messages": [
{"role": "user", "content": "Hello!"}
]
}'
流式响应:
API支持流式响应,适合需要实时显示生成内容的场景。
工具调用:
通过API可以调用智能体的工具功能,执行文件操作、命令执行等任务。
会话管理:
API支持创建、维护和恢复对话会话,保持多轮对话的上下文。
命令行界面使用
除了Web界面,项目还提供了命令行工具:
TUI界面:
node openclaw.mjs tui
启动终端用户界面,在命令行中直接与AI模型交互。
管理命令:
-
配置向导:
node openclaw.mjs onboard -
医生检查:
node dist/index.mjs doctor -
状态查看:
node openclaw.mjs status
批量处理:
通过脚本调用API接口,实现批量问题处理或自动化测试。
应用场景实例
实例1:学术研究者的多模型对比研究
场景描述:一位自然语言处理领域的研究者需要对比不同大语言模型在特定任务上的表现。传统方法需要为每个模型购买API令牌,成本高昂且流程繁琐。研究者希望系统性地测试Claude、GPT-4、Gemini、DeepSeek等模型在代码生成、数学推理、创意写作等多个维度上的能力差异。
解决方案:研究者部署OpenClaw Zero Token,一次性配置所有目标模型。使用AskOnce功能,向所有模型发送相同的测试问题集。系统并行调用各模型API,在统一界面中展示所有响应。研究者可以直观比较不同模型的回答质量、风格特点和性能差异。
实施效果:研究效率提升显著。原本需要数周时间逐个测试不同模型,现在可以在几小时内完成全面对比。零成本访问消除了经费限制,研究者可以设计更全面的测试集。通过工具调用功能,研究者还可以让模型直接执行代码测试,验证生成代码的实际运行效果。研究成果的质量和深度都得到了提升。
实例2:创业公司的AI产品原型开发
场景描述:一家AI创业公司正在开发智能客服产品,需要测试不同大语言模型作为后端引擎的效果。创业初期资金有限,无法承担多个模型API的高昂费用。团队需要快速迭代产品原型,同时保持成本可控。
解决方案:技术团队采用OpenClaw Zero Token作为开发测试平台。他们配置了Claude、GPT-4、DeepSeek等多个模型,通过统一的API网关进行调用。前端开发保持不变,只需修改API端点即可切换不同模型后端。团队使用AskOnce功能并行测试不同模型对相同用户问题的响应,选择最适合客服场景的模型。
实施效果:产品开发周期缩短了60%。团队可以在零成本的情况下充分测试不同模型,找到了性价比最优的解决方案。当发现某个模型在特定场景表现不佳时,可以立即切换到其他模型,无需重新开发接口。产品上线前,团队已经积累了丰富的模型调优经验,为后续商业化部署奠定了坚实基础。
实例3:教育机构的AI编程教学实验室
场景描述:一所大学的计算机学院希望建立AI辅助编程教学实验室,让学生能够使用最先进的大语言模型辅助学习。传统方案需要为每个学生账户购买API令牌,预算压力巨大。学院需要一种经济高效的解决方案,支持大量学生同时使用。
解决方案:学院部署OpenClaw Zero Token服务器,配置教育专用网络环境。通过统一的Web界面,学生可以访问Claude、DeepSeek、Qwen等多个模型。教师可以设计编程练习,让学生使用不同模型解决相同问题,然后对比分析各种解决方案的优缺点。系统支持工具调用,学生可以让模型直接执行代码,验证算法正确性。
实施效果:教学质量和学生参与度显著提升。学生可以免费使用顶级AI模型,编程学习体验更加丰富。教师通过对比不同模型的代码生成能力,开发了新的教学方法。实验室运行一学期后,学生的编程能力和问题解决能力都有明显提高。学院仅用传统方案十分之一的预算,实现了更好的教学效果。
实例4:内容创作工作室的多模型协作平台
场景描述:一家数字内容创作工作室需要为文案、剧本、营销材料等不同内容类型选择最合适的AI模型。创作团队经常需要在不同模型间切换,寻找最佳创作伙伴。工作室希望建立一个统一的平台,让创作者可以方便地访问所有主流模型,并支持多模型协作创作。
解决方案:工作室部署OpenClaw Zero Token,为创作团队提供统一访问入口。文案团队偏好Claude的创意写作能力,技术文档团队倾向DeepSeek的代码理解能力,营销团队喜欢GPT-4的营销文案生成。通过平台,不同团队可以共享使用经验,快速找到最适合特定任务的模型。工作室还开发了自定义工作流,让多个模型协作完成复杂创作任务。
实施效果:内容创作效率提升40%。团队不再受限于单一模型的特点,可以根据任务需求灵活选择最佳工具。多模型协作功能使得复杂内容创作更加高效,比如先用一个模型生成大纲,再用另一个模型丰富细节,最后用第三个模型进行润色。工作室的创作质量和产出速度都得到了客户的高度认可。
实例5:开源项目的多模型兼容性测试
场景描述:一个开源AI框架需要确保与多个大语言模型的兼容性。开发团队需要定期测试框架是否能在不同模型上正常工作,但购买所有模型的API令牌成本过高。团队需要一种经济高效的测试方案,能够覆盖主流模型,及时发现兼容性问题。
解决方案:团队集成OpenClaw Zero Token到CI/CD流水线中。每次代码提交后,自动化测试脚本通过统一API网关调用所有配置的模型,运行标准测试套件。测试内容包括API调用格式、响应解析、错误处理、工具调用等关键功能。测试结果自动生成报告,标注出与每个模型的兼容性问题。
实施效果:框架兼容性质量显著提升。团队可以及早发现和修复模型特定的兼容性问题,避免用户遇到使用障碍。测试成本从每月数千美元降至零,使得频繁的兼容性测试成为可能。开源项目的稳定性和可靠性得到了社区用户的高度评价,项目活跃度和贡献者数量都有显著增长。
GitHub地址
官方仓库地址:https://github.com/linuxhsj/openclaw-zero-token
项目状态:活跃开发中 - 持续更新,最新版本功能完善,社区活跃
关键信息:
-
项目名称:OpenClaw Zero Token - 零API令牌成本的AI模型访问网关
-
核心使命:通过浏览器自动化技术消除AI模型使用的经济壁垒
-
主要维护者:linuxhsj及开源社区贡献者
-
开源协议:基于OpenClaw项目,采用相应的开源许可证
-
技术栈:Node.js + Playwright + Lit 3.x + 现代Web技术
仓库结构:
-
src/ - 核心源代码目录
-
providers/ - 各平台认证和API客户端实现
-
agents/ - 智能体核心和流处理逻辑
-
commands/ - 命令行工具和认证流程
-
browser/ - Chrome自动化相关代码
-
ui/ - Web用户界面(基于Lit 3.x)
-
-
docs/ - 项目文档和参考材料
-
scripts/ - 安装和开发脚本
-
.openclaw-zero-state/ - 本地状态存储(不提交到Git)
-
openclaw.json - 主配置文件模板
-
package.json - 项目依赖和脚本定义
项目特色:
-
零成本访问:彻底消除API令牌费用,支持10+主流AI平台
-
统一网关:标准化接口,简化多模型集成
-
工具调用:所有模型支持本地工具执行,实现复杂自动化
-
并行查询:AskOnce功能一次提问获取所有模型答案
-
易于部署:完整安装向导,6步快速启动
-
活跃社区:持续更新,快速响应问题和需求
快速开始资源:
项目提供了完善的入门指南:
-
START_HERE.md:分步快速开始指南
-
INSTALLATION.md:详细安装配置文档
-
TEST_STEPS.md:测试和验证步骤
-
交互式脚本:
onboard.sh配置向导简化设置 -
示例配置:
.openclaw-state.example提供配置模板
社区与贡献:
OpenClaw Zero Token拥有活跃的开源社区,欢迎各种形式的参与:
-
问题报告:通过GitHub Issues报告bug或提出改进建议
-
功能请求:提交新平台支持或功能增强需求
-
代码贡献:遵循贡献指南提交Pull Request
-
文档改进:帮助完善文档,特别是中文文档
-
平台扩展:贡献对新AI平台的支持代码
项目遵循标准的开源协作流程,有明确的代码规范和提交指南。核心团队积极审查社区贡献,确保项目质量。
发展前景:
随着AI模型的普及和多样化,OpenClaw Zero Token的价值日益凸显:
-
平台扩展:持续增加对新AI平台的支持
-
稳定性提升:改进凭证捕获的可靠性和会话管理
-
功能增强:增加更多自动化工具和集成选项
-
用户体验:优化Web界面和命令行工具
-
企业特性:开发团队协作和权限管理功能
对于需要访问多个AI模型但受限于预算的开发者、研究者和企业,OpenClaw Zero Token提供了理想的技术解决方案。无论是学术研究、产品开发、教育培训还是内容创作,这个项目都能显著降低技术门槛和使用成本,加速AI技术的普及和应用创新。
更多推荐

所有评论(0)