昨天那篇 OpenClaw 实战复盘我把 OpenClaw 跑在本地三周后,发现它根本不是聊天机器人发出去之后,后台留言和群里讨论最多的就是这几个方向的问题:Token 消耗、能干什么、本地模型、隐私安全、使用体验。

今天挑出被问频率最高的五个,一个一个说清楚。

1. Token 消耗到底多少?贵不贵?

先说结论:没你想的那么贵,但也不是零成本。我前后用了两套方案,一套云端大厂套餐,一套国产性价比路线,感受差异还是挺明显的。

前期:OpenAI Pro 套餐(200 刀/月)

一开始接的是 OpenAI Pro,量大管饱,用着确实省心。不过这个套餐不是只给 OpenClaw 用的——我日常写代码也走这个额度,实际消耗大概一半一半。

跑了段时间下来,5 小时速率上限从来没碰过,Weekly 上限也没撞到。说明我这种"重度使用但不是 7×24 不停歇"的用法,200 刀的额度是够用的。

后期:智谱 GLM5 Coding Plan(年费 ¥1608)

Pro 到期后,我切到了智谱 GLM5 Coding Plan,走的是国产模型路线。

我买的时候赶上了首购优惠价 ¥980/年,但 2026 年 2 月智谱调整了套餐价格,取消了首购优惠,整体涨幅约 30%

2026 年 3 月最新套餐价格

套餐

季费

年费(季费×4)

月均

适用场景

GLM Coding Lite

¥132

¥528

¥44

轻度用户

GLM Coding Pro

¥402

¥1608

¥134

重度用户(推荐)

GLM Coding Max

¥1266

¥5064

¥422

团队/企业

我用的相当于 Pro 档位,涨价前 ¥980/年,现在 ¥1608/年。

实际跑下来体验还行,定时任务、巡检、日报周报、知识库整理这些高频场景都能稳稳撑住,没出现过限额不够用的情况。

GLM-5 API 按量计费(如果不用套餐)

如果你不想买套餐,也可以按量付费。GLM-5 的 API 价格:

模型

输入价格

输出价格

GLM-5(0-32K)

¥4 / 百万 Tokens

¥18 / 百万 Tokens

GLM-5(32K+)

¥6 / 百万 Tokens

¥22 / 百万 Tokens

GLM-5-Code(0-32K)

¥6 / 百万 Tokens

¥28 / 百万 Tokens

算笔账:我 7 天烧了 2.4 亿 Token,如果按量付费,光这 7 天就要花大约 ¥2400。而套餐年费才 ¥1608——也就是说,一整年的套餐价,还不到 7 天按量费用的零头

所以我的建议:重度用户直接上套餐,轻度用户可以先按量试试水深

国内 Coding Plan 对比(2026 年 3 月)

这三家是对 OpenClaw 支持最好的国内模型:

套餐

智谱 GLM

MiniMax

Kimi

入门档

Lite ¥44/月(¥528/年)

Starter ¥70/月(¥700/年)

Moderato ¥133/月

进阶档

Pro ¥134/月(¥1608/年)

Plus ¥140/月(¥1400/年)

Allegretto ¥99/月

高级档

Max ¥422/月(¥5064/年)

Max ¥350/月(¥3500/年)

Vivace ¥199/月

主力模型

GLM-5

MiniMax M2.5

Kimi K2.5

特点

国产最强,OpenClaw 默认支持

性价比高,API 稳定

长上下文强,2026 年转 token 计费

OpenClaw 支持

⭐⭐⭐ 原生支持

⭐⭐⭐ 原生支持

⭐⭐ 需配置

我的选择:GLM Coding Pro(¥1608/年),原因是 OpenClaw 对智谱的支持最成熟,API 稳定,中文能力强。

性价比之选:MiniMax Plus(¥1400/年),比 GLM Pro 便宜 200 块,能力接近。

⚠️ 以上价格为 2026 年 3 月查询结果,各家会不定期调整,购买前请以官网为准。

真实数据:7 天烧了 2.4 亿 Token

我查了下智谱后台:过去 7 天,GLM5 消耗了约 2.4 亿 Token

数字看起来挺吓人的,但要注意几点:

  1. 1. 这 2.4 亿是纯云端 GLM5 的消耗,本地模型处理的那部分并不算在里面

  2. 2. Coding Plan 年费 1608 元,2.4 亿 Token 分摊到 7 天的话,平均每天大约 3400 万 Token

  3. 3. 如果按量付费,GLM5 大约 0.01 元/千 Token,光这 7 天就要花 2400 元——而 Coding Plan 全年才 1608 元,套餐的性价比不言而喻

所以真实的费用结构是这样:

云端干高质量任务,本地干高频脏活。搭配下来,成本远没有想象中夸张。

完全不想花钱的话,也可以只用本地模型起步,但能力上限和响应质量确实会差一截。如果愿意每月花一杯咖啡的钱接个云端模型,整体体验会好很多,尤其是长文写作和复杂推理的场景。

心态:别太功利

说到费用,我想多聊两句心态。

养了这么久 OpenClaw(我家小朋友叫它"虾哥"),我最大的感触是:别一开始就想着变现、ROI 这些功利性的东西

AI 时代才刚刚开始,前期投资是必须的。你现在投入的时间和金钱,可能暂时看不到直接收益,但会慢慢转化成你对 AI 能力边界的理解、对 Agent 协作的体感、对"什么场景能用 AI 解决"的直觉判断力。

这些东西短期内没法量化,但长期来看价值巨大。

我的态度一直是:养虾就当给自己买了个大玩具,千金难买我开心。每天看它自己跑任务、写文章、整理知识库,这件事本身就已经很有成就感了。

以后能变现当然好,但不能用"现在能不能变现"来决定要不要开始。

先养起来,比什么都重要。

2. OpenClaw 到底能干什么?给几个实际的例子

上一篇实战复盘写得比较详细,但我知道很多人没耐心从头看到尾。

这里直接捞几个我觉得最有价值、最能说明问题的场景出来。

我正在用的

场景

说明

价值

每日论文精读

自动抓 Android/AI 论文 → 翻译 → 精读笔记,落盘到 Obsidian

跟踪前沿,零人工

GitHub 仓库监控

巡检 Issue/PR 变化,重要更新主动通知

我监控的是 Perfetto,不用每天刷

知识库建设

公众号/X/博客自动归档、结构化

1760 篇 Markdown 持续增长

内容回顾

每天推送值得重看的内容

解决"收藏了再也没看过"

Android 动态汇总

自动汇总领域动态,提取关键话题

不用刷信息流

核心价值在于,OpenClaw 最值钱的不是"帮你回答一个问题",而是把那些你明知很重要、但凭意志力很难长期坚持的事情,变成系统默认帮你执行的后台任务。


进阶案例 1:批量导入 NotebookLM 进行深度分析

NotebookLM 是 Google 推出的 AI 研究助手,可以把你的各种资料(PDF、网页、文档)变成一个可对话的知识库。它最大的亮点是能自动生成播客式音频概述——两个 AI 主持人用轻松聊天的形式帮你总结资料要点,通勤路上戴着耳机听非常香。

但 NotebookLM 有个明显的痛点:手动添加资料很麻烦,需要一个一个上传文件、一条一条粘贴链接,资料一多就让人抓狂。

OpenClaw 刚好可以帮你把这个流程自动化掉:

实际操作
我:帮我研究一下 Android 15 的性能优化特性。
    1. 搜索相关资料(官方文档、博客、论文)
    2. 整理成 10-15 个高质量来源
    3. 批量导入到 NotebookLM
    4. 生成播客概述

OpenClaw 会:

  1. 1. 自动搜集资料:搜索 Android 15 性能优化相关的官方文档、技术博客、论文

  2. 2. 筛选高质量来源:过滤掉水文、营销号,保留真正有价值的内容

  3. 3. 批量导入 NotebookLM:通过 API 或浏览器自动化,把资料一键导入

  4. 4. 触发播客生成:让 NotebookLM 生成音频概述

为什么这个组合很香?

单独用 NotebookLM

OpenClaw + NotebookLM

手动找资料、手动上传

自动搜集、批量导入

资料零散、质量参差不齐

筛选过的高质量来源

一个项目搞完就结束

可以定期更新、持续追踪

本质上就是把"信息搜集和筛选"这种费时费力的脏活外包给 OpenClaw,让 NotebookLM 专注于它最擅长的"深度分析和结构化输出"


进阶案例 2:扔一个链接,自动抓取所有关联内容并落盘

这是我日常用得最多的场景之一,几乎每天都会触发。

场景

刷推或者看公众号的时候看到一篇好文章,里面提到了:

  • • 几篇论文

  • • 几个 GitHub 仓库

  • • 几个相关链接

  • • 几本推荐的书籍

以前的做法你一定不陌生:收藏 → 告诉自己回头看 → 忘记 → 再也没看过。

现在有了 OpenClaw,做法变了:

我:https://example.com/awesome-article
    把这篇文章里提到的所有内容都抓下来:
    - 论文 → 下载 PDF
    - GitHub 仓库 → star + 克隆到本地
    - 相关链接 → 抓取正文
    - 书籍 → 记录到待读清单
    最后整理成一份 Markdown 落盘到 Obsidian
OpenClaw 会做什么?
  1. 1. 读取原文:抓取文章正文,识别所有链接和引用

  2. 2. 分类处理

  • • arXiv/论文链接 → 下载 PDF 到 论文/ 目录

  • • GitHub 链接 → 判断是否值得 star,重要的克隆到本地

  • • 普通网页 → 抓取正文,转成 Markdown

  • • 书籍/Amazon 链接 → 提取书名,加入待读清单

  • 3. 生成索引:创建一份 Markdown,包含:

    • • 原文摘要

    • • 所有关联内容的链接和简介

    • • 落盘位置(方便后续查找)

  • 4. 落盘到 Obsidian:自动保存到 Personal-Knowledge/source/ 目录

  • 实际效果

    一份这样的输出:

    # [原文标题] 关联内容索引
    
    ## 原文
    - 链接:https://example.com/awesome-article
    - 摘要:...
    
    ## 论文(2篇)
    1. [论文标题A] - 已下载到 `论文/2026-03/01-paper.pdf`
    2. [论文标题B] - 已下载到 `论文/2026-03/02-paper.pdf`
    
    ## GitHub 仓库(3个)
    1. [repo-a] - 已 star,克隆到 `code-projects/repo-a/`
    2. [repo-b] - 已 star
    3. [repo-c] - 仅记录链接(star 数 < 100)
    
    ## 相关文章(4篇)
    1. [文章A] - 正文已保存到 `source/articles/article-a.md`
    2. ...
    
    ## 书籍(2本)
    1. [书名A] - 已加入待读清单 `books/to-read.md`
    2. [书名B] - 已加入待读清单
    
    ---
    生成时间:2026-03-10 07:30

    一个链接,一条指令,全套内容自动归位。

    以后想回顾这篇内容的时候,打开 Obsidian 搜一下关键词就行,所有关联资料都已经按类型归好位了,再也不用从收藏夹里一条一条翻。

    如果你是 Android 开发者

    这是我目前还没做但正在规划中的方向,列出来看看有没有跟你产生共鸣的场景:

    痛点

    OpenClaw 能做什么

    适用

    Trace 分析门槛高

    上传 Perfetto/Systrace → AI 辅助解读 → 生成"人话版"报告

    App 性能优化、系统 UX 性能

    版本适配清单

    自动抓 Android Release Notes → 生成适配 checklist → 对比代码标记检查点

    App 开发者(每年必做)

    Issue 堆积难筛选

    自动分类(bug/feature/question)→ 优先级判断 → 提取关键信息

    开源维护者、团队协作

    Code Review 耗时

    检测常见问题模式(空指针、资源泄漏、主线程 IO)→ 生成 Review checklist

    所有团队

    技术债务遗忘

    定期扫描 TODO/FIXME → 按优先级排序 → 定期提醒"该还债了"

    所有项目

    Benchmark 没人看

    定期跑 benchmark → 自动对比历史 → 异常告警(启动 +500ms)

    性能优化团队

    内部文档找不到

    基于知识库回答"之前遇到过吗?""设计文档在哪?"

    所有团队

    上游变更追踪

    监控 AOSP/厂商代码变更 → 提醒需要合并的点

    系统开发者

    这些能力并不是开箱即用的,需要根据你自己的业务场景做定制开发。但 OpenClaw 的架构天然支持这些方向的扩展——关键是先把基础设施养起来,再根据实际需求慢慢迭代

    一句话总结

    论文每天读、仓库每天盯、知识每天理、日报每天写。

    它真正做到的是,把"需要长期坚持"这件反人性的事情,变成了"系统在后台默默帮你执行"。

    3. 本地模型可以干什么?

    本地模型的定位并不是替代云端大模型,而是专门负责那些脏活、累活和高频重复的任务。

    一句话概括分工:云端"想得深",本地"跑得勤"。

    本地模型承担了多少?

    我的实际运行数据:

    任务类型

    模型

    占比

    巡检、监控、批处理

    本地 Qwen3.5-27B

    30%

    状态检查、轻量分类

    本地 Qwen3.5-4B

    20%

    极轻任务

    本地 Qwen3.5-2B

    10%

    云端失败降级

    本地 Qwen3.5-9B

    5%

    长文、精修、复盘

    云端 GLM5

    15%

    日报周报、审计

    云端 GLM5

    10%

    论文精读、ClawFeed

    云端 GLM5

    10%

    按任务数量算,本地承担了 60-70%;按 Token 消耗算,本地承担了 80%+。

    我的配置

    硬件是一台 Mac Studio(M 系列 Apple Silicon),上面部署了多个规格的本地模型:

    • • Qwen3.5-2B/4B/9B(MLX 8bit 量化):负责轻量任务和云端故障时的容灾降级

    • • Qwen3.5-27B(Ollama 部署):承担高频结构化任务,是本地的主力干活模型

    顺便提一句,Apple Silicon 上用 MLX 框架做推理的效率明显比 Ollama 高,尤其是跑小模型的时候差距更明显。

    分工原则

    本地适合

    云端更强

    高频结构化任务(RSS、队列处理)

    长文写作与精修

    巡检与监控

    复杂推理与判断

    数据预处理(不离开本机)

    高质量翻译与解读

    云端降级接管

    论文精读、深度分析

    至于成本,硬件本来就是已经购入的设备,电费增加也不多,所以本地模型的边际成本接近零

    烧 Token 的速度

    即使有本地模型分担,云端 Token 还是烧得飞快

    我的配置:主模型 GPT-5.4 + 干活主力 GLM5 + 本地苦力 Qwen3.5 系列(27B/9B/4B/2B)。

    所以我的建议是:直接上量大管饱的 Coding Plan 套餐。预算充裕的话可以选 GPT Pro,追求性价比的话 MiniMax 或者 Kimi 都是不错的选择。按量付费的话,以这个消耗速度你一定会心疼的。

    备用通道

    虾哥前期运行偶尔会出现不稳定的情况,这时候我会用 Claude Code(Remote Control)远程连过去手动排查和救火。这种情况出现的频率不高,但有备用通道在手里,心里踏实很多。

    分工逻辑

    打个比方,本地模型是"勤奋的蓝领工人",云端模型是"聪明的高级顾问"。OpenClaw 做的事情,就是帮你把这套分工协作的逻辑彻底自动化了。

    4. 隐私和安全怎么保护?

    这个问题被问得非常多,也确实是每个人在决定养虾之前必须认真想清楚的事情。

    核心原则

    敏感数据不离开本机。 这是我给自己划的底线。

    具体的做法也很简单直接:

    1. 1. 敏感文件不上云端:公司代码、内部文档、个人隐私相关的内容,一律只走本地模型处理

    2. 2. 本地优先:能在本地解决的任务,绝不走云端 API

    3. 3. 最小权限原则:OpenClaw 只能访问我明确授权过的目录和工具,其他一概不给权限

    技术层面的防护

    命令执行白名单

    safeBins 配置严格限制了它能执行的命令范围:只允许 lscatgrepfindgit 这些基础只读命令,而像 rm -rf 这样的危险操作会被 deniedFlags 直接拦截。

    也就是说,即使有人尝试通过提示注入诱导它执行恶意操作,命令层面也根本跑不通。

    来源校验

    commands.ownerAllowFrom 和 channels.allowFrom 做了来源白名单,只允许我自己的账号发送系统级指令。即便在群聊里有其他人@它,它也不会响应任何敏感操作。

    配置文件哈希校验

    每天自动对 openclaw.json 生成 SHA256 哈希值,并与基线值进行对比。一旦检测到配置文件被篡改,系统会立刻触发告警通知。

    定期巡检

    每天自动扫描 workspace 目录下的所有文件,检测是否存在私钥、密码、助记词等敏感信息。一旦发现就立即告警通知,绝不静默忽略。

    运行层面的隔离

    • • OpenClaw 跑在独立的 Mac Studio 上,不和我日常开发的机器混用

    • • 敏感账号(公司邮箱、内部系统)不接入 OpenClaw

    • • 微信公众号等对外发布渠道,只开放"草稿保存",不开放"直接发布"

    信任边界

    我现在的策略:

    OpenClaw 能看到的东西,不会比我主动发给云端 AI 的内容更敏感。

    你想想看,日常用 ChatGPT、Claude 的时候也会上传文件、发截图,那些数据的暴露面其实更大、更不可控。OpenClaw 反而是相对受控的——它的权限范围、它的行为日志、它的所有操作记录,全部都在我本地机器上,随时可以审计。

    安全的本质

    安全从来不是 AI Agent 自带的默认行为,而是需要你在部署之前主动设计和配置出来的。

    养虾之前,先把笼子扎紧,这个顺序千万不能反。

    5. 使用体验:手机随时操控,数据不会丢

    这一条其实被问得不算多,但我个人觉得它是 OpenClaw 用起来真正"顺手"的关键所在,值得单独拎出来说说。

    Telegram:一个主 bot + 若干群聊

    我的用法是这样:

    • • 主 bot(私聊):日常对话、发指令、问问题

    • • 群聊:不同的 daily task 转发到不同的群

      • • Android 群:技术简报、论文精读、GitHub 动态

      • • Daily 群:日报、周报、系统通知

      • • 其他群:按需分流

    为什么要分群?原因有三个:

    1. 1. 信息不混杂:技术内容和日常运维日志分开管理,想看哪个类别就进哪个群

    2. 2. 通知可控:重要的群打开通知提醒,不重要的直接静音,避免信息轰炸

    3. 3. 协作方便:有些群可以拉同事一起加入,共享信息源

    数据落盘到 Obsidian

    Telegram 在这个体系里只是"前端展示层",真正重要的内容最终都会落盘到 Obsidian。

    这种架构设计意味着三件事:

    • • 不会丢:Telegram 的消息会随着时间被刷掉,但 Obsidian 里的 Markdown 文件会一直留存

    • • 可检索:Obsidian 的全文搜索能力远比 Telegram 的聊天记录搜索好用

    • • 可整理:后期可以随时对内容重新组织结构、打标签、建立双向链接

    我现在 Obsidian 里的结构:

    • • OpenClaw定时任务/:所有定时任务的输出

    • • 论文/:论文精读三件套

    • • Personal-Knowledge/source/:知识库(1760 篇)

    • • X 文章/:归档的高价值 X 内容

    手机随时访问

    这一点的重要性比我最初想象的要大得多。

    • • 出去玩的时候,掏出手机打开 Telegram 就能直接给虾哥发指令,跟在电脑前操作没有区别

    • • 想看今天的日报?打开 Obsidian 手机端,文件已经通过 iCloud 同步过来了

    • • 遇到紧急情况需要调整任务?不用专门开电脑,手机上就能完成操作

    我现在的日常习惯是:早上醒来先刷一下 Telegram,看看昨晚虾哥跑了哪些任务、有没有异常,有问题的直接在手机上回复处理。外出的时候也能随时看一眼运行状态,心里有数。

    架构总结

    前端是 Telegram,后端是 Obsidian。

    Telegram 解决的是"随时随地都能触达"的问题,Obsidian 解决的是"数据永远不会丢"的问题。两者结合在一起,才构成了一个真正好用的 24/7 全天候助手体验。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐