OpenClaw 日均消耗可达 2150 万 Token,一个月轻松烧掉 3 万元。成本远超普通用户承受范围,被称为"月薪两万都养不起的龙虾"。

TOKEN 消耗分布(六大黑洞)

消耗项

占比

具体说明

优化空间

上下文累积

40-50%

每轮对话重发完整历史,20 轮对话后可达 50 万 Token

⭐⭐⭐⭐⭐

工具输出存储

20-30%

大型 JSON、日志、文件列表、浏览器抓取数据存入历史

⭐⭐⭐⭐

系统提示词

10-15%

基础系统提示词约 1.5 万 Token(含 23 个工具定义),每次必发

⭐⭐⭐

缓存前缀重放

79.4%(极端情况)

单次调用中 17 万 Token 用于读取缓存历史,而非处理新请求

⭐⭐⭐⭐⭐

多轮推理链

10-15%

复杂任务需 5-10 次 API 调用,每次携带完整上下文

⭐⭐

模型选择不当

5-10%

Claude Opus 比 Haiku 贵 25 倍,用错模型纯浪费

⭐⭐⭐⭐⭐


典型场景的 Token 爆炸案例

案例 1:一天烧掉 2150 万 Token

总 Token:21,543,714
├─ cacheRead(缓存读取):17,105,970(79.40%)← 主要元凶
├─ input(实际输入):4,345,264(20.17%)
└─ output(输出生成):92,480(0.43%)

真相:每次调用重复读取 17 万 Token 的巨型历史上下文,而非处理新用户意图。

案例 2:30 轮编程对话

场景

预期消耗

实际消耗

倍数

简单问答"你是什么模型"

~200 Token

9,600-10,269 Token

50 倍

5 轮日常对话

~3,000

~45,000

15 倍

30 轮编程对话

~12,000

1,860,000

155 倍

元凶:编程对话含大量代码块,{{MESSAGES:END:6}} 模板拉取最后 6 条消息,每条可能含上万 Token 代码。

案例 3:单次任务消耗

  • 生成 2000 字 Word 文档(含资料搜索):700 万 Token
  • 小型爬虫测试:2900 万 Token
  • 傅盛日均消耗:1-2 亿 Token/天(月耗 3 万元)

具体消耗在哪里?

1. 缓存前缀里的"垃圾"

每次调用重复读取的 17 万 Token 缓存中,主要是:

  • 巨型 toolResult 数据块(36.6 万字符)
  • 冗长的 thinking 推理痕迹(33.1 万字符)
  • 大型 JSON 快照、文件列表、浏览器抓取数据
  • 子 Agent 对话记录

2. 系统提示词(不可避免)

每次请求必带的 ~15,000 Token 基础开销:

  • 23 个工具定义及其 JSON Schema
  • 工作区文件(AGENTS.md、SOUL.md)
  • 技能描述、自更新指令
  • 时间戳、运行时元数据、安全头

3. 多轮对话的指数级增长

对话轮数

默认设置消耗

优化后消耗

节省比例

第 1 轮

~10,000

~3,000

70%

第 5 轮

~50,000

~15,000

70%

第 10 轮

~150,000

~45,000

70%

第 20 轮

~500,000

~150,000

70%

第 30 轮

1,200,000

360,000

70%

规律:每轮对话都重新发送完整历史,成本随轮数指数增长。


为什么中国模型成为赢家?

模型

输入价格(缓存命中)

对比

Claude Opus 4.6

$5/百万 Token

基准

Kimi K2.5

$0.1/百万 Token(¥0.7)

1/50 价格

MiniMax M2.5

输出成本是 Opus 的 1/10~1/20

极致性价比

结果:OpenRouter 平台 2026 年 2 月全球 Token 消耗 8.7 万亿,中国模型占 5.3 万亿(61%)


成本优化策略(省钱 50-80%)

立即行动(今天)

  1. 运行 /status 检查当前 Token 使用
  2. 设置消费限额,防止账单冲击
  3. 新任务开新会话,避免历史累积

本周实施

  1. 模型路由:简单任务用 Haiku($1/百万),编码用 Sonnet($3/百万),Opus 仅必要时用
  2. 启用提示缓存:TTL 对齐心跳间隔(默认 5 分钟)
  3. 自动会话重置:50% 上下文容量时自动清理

本月部署

  1. 本地模型:LM Studio 运行小模型,零成本处理简单任务
  2. 子 Agent 用便宜模型:主会话用 Claude,子任务用 Kimi/DeepSeek
  3. 批量处理:非紧急任务用批处理 API(50% 折扣)

OpenClaw 的 Token 主要消耗在"重复读取历史上下文"(79.4%),而非实际处理用户请求。其 Agent 架构需要持续调用大模型进行工具执行、浏览器操作、代码生成,每一步都携带完整对话历史,导致成本随使用时长指数级爆炸。使用国产性价比模型(Kimi/DeepSeek/MiniMax)+ 严格上下文管理(定期 /compact 压缩、长任务 /spawn 拆分子会话),可将成本降至 1/10.

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐