销金窟的OpenClaw到底把Token花在哪个妹纸身上了?
OpenClaw 日均消耗可达,一个月轻松烧掉。成本远超普通用户承受范围,被称为"月薪两万都养不起的龙虾"。
OpenClaw 日均消耗可达 2150 万 Token,一个月轻松烧掉 3 万元。成本远超普通用户承受范围,被称为"月薪两万都养不起的龙虾"。

TOKEN 消耗分布(六大黑洞)
|
消耗项 |
占比 |
具体说明 |
优化空间 |
|
上下文累积 |
40-50% |
每轮对话重发完整历史,20 轮对话后可达 50 万 Token |
⭐⭐⭐⭐⭐ |
|
工具输出存储 |
20-30% |
大型 JSON、日志、文件列表、浏览器抓取数据存入历史 |
⭐⭐⭐⭐ |
|
系统提示词 |
10-15% |
基础系统提示词约 1.5 万 Token(含 23 个工具定义),每次必发 |
⭐⭐⭐ |
|
缓存前缀重放 |
79.4%(极端情况) |
单次调用中 17 万 Token 用于读取缓存历史,而非处理新请求 |
⭐⭐⭐⭐⭐ |
|
多轮推理链 |
10-15% |
复杂任务需 5-10 次 API 调用,每次携带完整上下文 |
⭐⭐ |
|
模型选择不当 |
5-10% |
Claude Opus 比 Haiku 贵 25 倍,用错模型纯浪费 |
⭐⭐⭐⭐⭐ |
典型场景的 Token 爆炸案例
案例 1:一天烧掉 2150 万 Token
总 Token:21,543,714
├─ cacheRead(缓存读取):17,105,970(79.40%)← 主要元凶
├─ input(实际输入):4,345,264(20.17%)
└─ output(输出生成):92,480(0.43%)
真相:每次调用重复读取 17 万 Token 的巨型历史上下文,而非处理新用户意图。
案例 2:30 轮编程对话
|
场景 |
预期消耗 |
实际消耗 |
倍数 |
|
简单问答"你是什么模型" |
~200 Token |
9,600-10,269 Token |
50 倍 |
|
5 轮日常对话 |
~3,000 |
~45,000 |
15 倍 |
|
30 轮编程对话 |
~12,000 |
1,860,000 |
155 倍 |
元凶:编程对话含大量代码块,{{MESSAGES:END:6}} 模板拉取最后 6 条消息,每条可能含上万 Token 代码。
案例 3:单次任务消耗
- 生成 2000 字 Word 文档(含资料搜索):700 万 Token
- 小型爬虫测试:2900 万 Token
- 傅盛日均消耗:1-2 亿 Token/天(月耗 3 万元)
具体消耗在哪里?
1. 缓存前缀里的"垃圾"
每次调用重复读取的 17 万 Token 缓存中,主要是:
- 巨型 toolResult 数据块(36.6 万字符)
- 冗长的 thinking 推理痕迹(33.1 万字符)
- 大型 JSON 快照、文件列表、浏览器抓取数据
- 子 Agent 对话记录
2. 系统提示词(不可避免)
每次请求必带的 ~15,000 Token 基础开销:
- 23 个工具定义及其 JSON Schema
- 工作区文件(AGENTS.md、SOUL.md)
- 技能描述、自更新指令
- 时间戳、运行时元数据、安全头
3. 多轮对话的指数级增长
|
对话轮数 |
默认设置消耗 |
优化后消耗 |
节省比例 |
|
第 1 轮 |
~10,000 |
~3,000 |
70% |
|
第 5 轮 |
~50,000 |
~15,000 |
70% |
|
第 10 轮 |
~150,000 |
~45,000 |
70% |
|
第 20 轮 |
~500,000 |
~150,000 |
70% |
|
第 30 轮 |
1,200,000 |
360,000 |
70% |
规律:每轮对话都重新发送完整历史,成本随轮数指数增长。
为什么中国模型成为赢家?
|
模型 |
输入价格(缓存命中) |
对比 |
|
Claude Opus 4.6 |
$5/百万 Token |
基准 |
|
Kimi K2.5 |
$0.1/百万 Token(¥0.7) |
1/50 价格 |
|
MiniMax M2.5 |
输出成本是 Opus 的 1/10~1/20 |
极致性价比 |
结果:OpenRouter 平台 2026 年 2 月全球 Token 消耗 8.7 万亿,中国模型占 5.3 万亿(61%)。
成本优化策略(省钱 50-80%)
立即行动(今天)
- 运行 /status 检查当前 Token 使用
- 设置消费限额,防止账单冲击
- 新任务开新会话,避免历史累积
本周实施
- 模型路由:简单任务用 Haiku($1/百万),编码用 Sonnet($3/百万),Opus 仅必要时用
- 启用提示缓存:TTL 对齐心跳间隔(默认 5 分钟)
- 自动会话重置:50% 上下文容量时自动清理
本月部署
- 本地模型:LM Studio 运行小模型,零成本处理简单任务
- 子 Agent 用便宜模型:主会话用 Claude,子任务用 Kimi/DeepSeek
- 批量处理:非紧急任务用批处理 API(50% 折扣)
OpenClaw 的 Token 主要消耗在"重复读取历史上下文"(79.4%),而非实际处理用户请求。其 Agent 架构需要持续调用大模型进行工具执行、浏览器操作、代码生成,每一步都携带完整对话历史,导致成本随使用时长指数级爆炸。使用国产性价比模型(Kimi/DeepSeek/MiniMax)+ 严格上下文管理(定期 /compact 压缩、长任务 /spawn 拆分子会话),可将成本降至 1/10.
更多推荐



所有评论(0)