文章目录

🍃作者介绍:25届双非本科网络工程专业,阿里云专家博主,深耕 AI 原理 / 应用开发 / 产品设计。前几年深耕Java技术体系,现专注把 AI 能力落地到实际产品与业务场景。
🦅个人主页:@逐梦苍穹
🐼GitHub主页:https://github.com/XZL-CODE
✈ 您的一键三连,是我创作的最大动力🌹

⚡ 重要更新:NewClaw MVP 已开发完成,本周将正式开源发布!
这篇文章不只是设计方案——我已经把下面所有的架构思路落地成了可运行的代码。单线程主循环、事件驱动、外部记忆服务、渐进式信任权限模型,全部实现。
这两周内我会在 GitHub 上发布 MVP 版本,届时大家可以直接上手体验。
如果你也受够了 OpenClaw 的 Session 熵增和 Token 黑洞,或者对"少约束释放模型潜力"这个方向感兴趣,强烈建议先关注公众号【龙哥AI】,发布当天我会第一时间推送安装指南和使用教程。
下面进入正文——先聊聊我为什么要做这件事。

1、前言:为什么我们需要重新思考 AI 伴侣的架构?

在这里插入图片描述

OpenClaw 上线数周就突破 20 万 Star,成为开源社区最火爆的 AI 伴侣框架。但在光鲜数据的背后,运营者们发现了一个残酷的现实:

“从’装好 OpenClaw’到’系统流畅运作’再到’Agent 自主进化’之间,有巨大的鸿沟。90% 的时间花在工程问题上,不是 AI 问题上。”

子 Agent 回调无限循环烧掉 1.28 亿 Token($100+)、Session 膨胀到 7069 条消息导致死亡螺旋、Heartbeat 与 Cron 双调度系统互相污染……这些不是偶发 Bug,而是架构层面的系统性缺陷

与此同时,另一个产品却走了完全相反的路——Claude Code。它没有复杂的调度系统,没有 Markdown 配置文件驱动的行为约束,甚至没有专用的文件搜索工具。它只有一个极简的单线程主循环和一个 bash 接口。然而在 2026 年初的开发者喜爱度调查中,Claude Code 以 46% 的份额碾压 Cursor 的 19%

这两个产品的成败对比,揭示了 AI 产品设计中一个深刻的规律:当模型能力足够强时,工程化约束不是保护网,而是枷锁。

本文将从 CC 与 Cursor 的架构哲学之争出发,提炼出"为未来模型设计"的核心理念,并据此设计一款名为 NewClaw 的新一代主动式 AI 伴侣产品——它继承 OpenClaw 的产品定位,但采用 Claude Code 的架构哲学,从根本上解决 OpenClaw 暴露的所有工程问题。

核心公式:

NewClaw = Claude Code 的架构哲学
        + OpenClaw 的产品定位(主动式 AI 伴侣)
        + 事件驱动(替代 Heartbeat/Cron)
        + 渐进式信任(替代 SOUL.md 硬约束)
        + 外部记忆服务(替代 Session 熵增)

2、CC vs Cursor 的启示:少约束 vs 多约束的胜负

2.1 一句定义产品方向的话

Claude Code 由 Boris Cherny 于 2024 年 9 月加入 Anthropic 后开始开发,最初只是一个 side project。他的管理者 Ben Mann 说了一句奠定整个产品哲学的话:

“Don’t build for today’s model, build for the model six months from now.”
(不要为今天的模型设计,要为六个月后的模型设计。)

这句话的含义极其深远:不用大量工程化约束弥补当前模型的不足,而是相信模型能力会持续提升,为更强的模型留出空间。

这在当时是一个高风险的赌注。2025 年 2 月 Claude Code 以"研究预览"发布时,模型能力(Claude 3.7 Sonnet)确实不足以支撑这种激进设计——用户抱怨"Claude Code gets stuck in loops of doing the wrong thing"。而 Cursor 的工程化约束(Rules 系统、Diff 预览、上下文裁剪)恰好弥补了模型短板,体验远好于 CC。

但当 Claude 4(2025年5月)和 Claude 4.5(2025年9月)发布后,局势彻底逆转。

在这里插入图片描述

2.2 全维度对比:两种截然不同的设计哲学

维度 Claude Code Cursor
设计出发点 为未来更强的模型设计 为当前工作流补充 AI 能力
工程化约束方向 随模型进步逐渐减少约束 预设约束,持续累积规则
安全机制 事后撤销(checkpoint + rewind) 事前审批(diff preview)
上下文策略 全量输入,200k 实际可用 工程化裁剪,实际 70k-120k
工具设计 给 bash,让模型自己找路 专用工具 + 结构化工作流
产品迭代 Latent Demand(观察用户再标准化) 自上而下设计预设工作流

社区最精辟的概括:

“Claude Code nudges toward exploration while Cursor nudges toward convergence.”
(Claude Code 引导你探索,Cursor 引导你收敛。)

一个曾是"Cursor top 0.01% 用户"的开发者切换到 Claude Code 后的帖子引发了 HN 热议。Reddit 上流传的情绪转折点:

“I’d rather pay for Claude Code even if someone gave me a free subscription to Cursor.”

核心洞见:Cursor 为了工程化管控,在模型和开发者之间引入了大量中间层——这些中间层在模型能力弱时是保护,在模型能力强时是枷锁。

2.3 这场对决的宏观意义

Claude Code 和 Cursor 的对比,映射了 AI 领域更宏观的规律:

当模型能力不够强时,工程化约束是弥补手段;当模型能力足够强时,工程化约束变成负担。

  • Cursor 的"多约束"设计在 2023-2024 年模型能力有限时代是正确的
  • Claude Code 的"少约束"设计是在赌模型能力的快速提升——这个赌注在 2025 年被证明是正确的
  • 对 AI 伴侣产品的启示:OpenClaw 用 SOUL.md / AGENTS.md 约束模型行为的方式,和 Cursor 用 Rules 约束模型的方式本质相同——都是"多约束"路线。在模型能力持续提升的今天,我们需要一条新路。

3、CC 的设计哲学精髓

3.1 极简单线程主循环

Claude Code 的技术架构被称为单线程主循环(Single-Threaded Master Loop),本质极其简洁:

while model_produces_tool_call:
    execute_tool()
    feed_result_back_to_model()
# 当 model 输出纯文本时,循环自然结束

关键设计决策:

  • 单一扁平消息历史(flat message history):不做线程化,无多 Agent 竞争控制权
  • 最多一层子 Agent 分叉:防止不受控的 Agent 增殖
  • 刻意拒绝复杂的多 Agent 编排模式

“The thesis is straightforward: a simple, single-threaded master loop combined with disciplined tools and planning delivers controllable autonomy.” — ZenML 分析报告

这和 OpenClaw 的 Hub-and-Spoke 架构(Gateway 网关 + 多子系统)形成鲜明对比。OpenClaw 的 Heartbeat Runner、Cron Scheduler、Session Registry、Command Queue 等多个子系统共享事件总线,路由逻辑存在大量歧义,最终导致了状态机互污染、Token 黑洞等一系列灾难。

3.2 “Bash 就是一切”——最反直觉的设计决策

Boris Cherny 在访谈中描述了团队最出人意料的发现:

“Everything is dual use. We give it bash and they just started using bash, writing AppleScript to automate stuff.”

团队的反直觉发现:

  • 模型会自发地用 bash 查阅 git 历史来解决问题——这是工程师完全没有预先设计的行为
  • 最朴素的 glob + grep 文件搜索,实际效果超过了精心设计的 RAG 系统
  • 尝试了本地向量数据库、递归模型索引等复杂方案,最终都比不上让模型直接用文本搜索

这个发现对我的冲击很大。作为一个曾经花大量时间研究 RAG 优化的开发者,我不得不承认:有时候最简单的方案就是最好的方案。 模型不需要你替它设计好搜索策略,它自己知道怎么找到需要的信息——前提是你给它足够的工具自由度。

3.3 渐进式信任:随模型进步,删除约束

这是 Claude Code 与传统工程化工具最根本的哲学差异,也是 NewClaw 设计的核心灵感来源。

Mikhail Shilkov 对 Claude Code 1.x 和 2.0 的系统提示词做了详细对比,发现了清晰规律:

在这里插入图片描述

策略是精准的:

  • 模型能自主掌握的行为 → 从提示词中删除约束
  • 真正高风险的操作(如 git force push) → 持续强化明确约束

这和 OpenClaw 的 SOUL.md"不可变宪法"设计完全相反。OpenClaw 把约束写进配置文件后就不再修改,甚至鼓励用户累积更多规则。结果是:Agent 在"反思迭代"后给自己加了"AI/科技内容不超过 40%"的配额限制,"智能压缩"砍掉了关键数据表格,"智能修复"自己的配置导致工具名错误。

约束越多,模型"聪明地"绕过约束的方式就越多——这不是 Bug,这是 LLM 的本性。

3.4 创始人的使用方式:最朴素的配置

Boris Cherny 在 Threads 发帖:

“My setup might be surprisingly vanilla! Claude Code works great out of the box, so I personally don’t customize it much.”

他的日常工作流:同时在多个终端标签页运行 5 个 Claude Code 实例并行处理不同任务,先在 planning mode 中迭代计划,再一键执行——每天能输出 20-30 个 PR

最好的工具就是不需要你花大量时间配置的工具。


4、NewClaw 设计哲学:五大核心原则

从 CC vs Cursor 的启示、OpenClaw 的工程教训、以及六种自主 Agent 设计模式的研究中,我提炼出 NewClaw 的五大设计原则:

4.1 原则一:单循环,零调度冲突

OpenClaw 的 Heartbeat + Cron 双系统是一切灾难的根源:

  • 状态机互污染(Issue #7613)
  • 路由目标歧义(Issue #18573)
  • 回调去重缺失导致无限循环(Issue #17442,1.28 亿 Token)
  • 上下文膨胀(每次心跳 170k-210k tokens)

NewClaw 只有一个主循环——像 Claude Code 一样:

while alive:
    event = await next_event()       # 等待事件
    context = gather_context(event)  # 收集最小必要上下文
    response = model.think(context)  # 模型自主决策
    execute(response.actions)        # 执行模型决定的行动

没有 Heartbeat。没有 Cron。模型自己决定什么时候该做什么。

4.2 原则二:渐进式信任(Progressive Trust)

CC 团队的核心实践:随模型能力提升,删除而非增加系统提示词约束。

  • 模型能自主掌握的行为 → 从提示词中删除
  • 真正高风险的操作 → 保留硬约束(如数据删除、资金操作)
  • 不是"约束模型",而是"信任模型 + 精确边界"

4.3 原则三:事件驱动,非轮询

不再问"现在几点了,该不该做某事",而是"发生了什么事,我需要关注吗"。

Confluent 在 2025 年推出的 Streaming Agents 已经证明:事件驱动的 AI Agent 在响应速度、资源利用率、可扩展性上全面超越传统的 cron job 方式。

4.4 原则四:轻量上下文,杜绝熵增

OpenClaw 的 Session 死亡螺旋(7069 条消息 / 17 万 token / 20MB 磁盘)是不可避免的——持续运行的系统会确定性地熵增。

NewClaw 的解法:无持久 Session,每次交互从外部记忆服务拉取最小必要上下文。

4.5 原则五:AI 提案,人类决策

主动性不是"替用户做决定",而是"我发现了这个,你要不要处理?"

这是 Gmail Smart Reply 的设计哲学:被动邮件处理(用户主导)+ 主动建议(AI 提案,用户决定是否采用)。研究表明,主动 AI 帮助会导致用户基于能力的自尊心下降,降低系统满意度——所以主动功能必须提供退出机制,并允许用户调整 AI 介入程度。


5、NewClaw 架构全景

在这里插入图片描述

NewClaw 的整体架构由一个单线程主循环驱动,连接六大核心模块。下面逐一详解。


6、核心模块详解

6.1 事件收集器(Event Collector)— 替代 Heartbeat + Cron

在这里插入图片描述

OpenClaw 的问题: 两套调度系统共享事件总线,路由歧义导致状态机互污染。原生 Heartbeat 每次运行消耗约 170k-210k tokens,且因触发频率失控(实测 ~10-20 秒),实际 token 消耗远超预期。

NewClaw 的解法: 统一事件流 + 模型自主判断。

事件源(全部异步,按需激活):
  用户消息 / Webhook / 文件变更 / API回调 / 邮件到达 / 日历事件 / 监控告警
        │
        ▼
  ┌──────────┐     ┌──────────────┐
  │ 事件队列 │────▶│ 模型自主判断 │
  │ (优先级) │     │"要不要处理?"│
  └──────────┘     └──────┬───────┘
                    ┌─────┴─────┐
                 [处理]      [静默]
              (进入主循环)  (零token消耗)

关键差异:

  • 没有固定周期轮询,事件到达时才激活
  • 模型自己决定这个事件值不值得处理(而非工程代码判断)
  • 静默时不消耗 token(OpenClaw 原生 Heartbeat 每次 170k-210k token)
  • 用户可以用自然语言配置关注的事件,而非编写 cron 表达式

自然语言配置示例:

用户: "帮我关注 Sentry 上的 P0 错误,有新的就告诉我"
模型: [自主注册 Sentry Webhook] → [收到事件时自主判断严重程度]
     → [P0: 立即通知] [P1: 积累后批量汇报] [P2+: 静默]

这比 OpenClaw 需要手动配置 cron 表达式和 HEARTBEAT.md 清单的方式直观得多。

6.2 上下文组装器(Context Assembler)— 杜绝 Session 熵增

OpenClaw 的问题: 持久 Session 导致 7069 条消息 / 17 万 token 的死亡螺旋。大工具输出(例如 396KB+ JSON)被永久存入 Session,此后每条消息都拖着这个巨大历史块。

NewClaw 的解法: 无持久 Session,按需拉取最小上下文。

每次推理前,上下文组装器按需组装上下文窗口,分为四层:

层级 内容 预估大小
身份层(固定) 核心人格 + 用户画像 + 精确边界(不可违反的硬约束) ~2k token
记忆层(按需拉取) 语义检索相关记忆 + 近期交互摘要 + 用户偏好 ~5-20k token
任务层(动态) 当前事件数据 + 工具调用结果 + 相关文件内容 ~10-50k token
工具层(固定) 可用工具清单 + 使用格式 ~3k token

总计:20k-75k token(远低于 200k 上限),剩余空间留给模型推理和输出。

核心规则:

  • 不存储完整对话历史
  • 每次交互后,仅将"值得记住的"写入记忆服务
  • 模型自主决定什么值得记忆(而非全量保存)

6.3 模型推理层(Model Reasoning)— 自主决策的核心

这是与 OpenClaw 最根本的区别。 OpenClaw 用 SOUL.md / AGENTS.md 硬编码行为;NewClaw 让模型自主推理。

模型可自主做出的决策类型:

  1. 主动发起对话 — “你昨天提到的那个 API 集成,我查了一下,有个更简单的方案…”
  2. 反问澄清 — “你要我监控的是生产环境还是测试环境?”
  3. 主动检索信息 — 调用工具搜索,分析后推送给用户
  4. 生成方案文档 — 可行性分析 + 架构图
  5. 提醒和建议 — “根据你的习惯,现在是做周报的时间”
  6. 静默(最重要的决策) — 模型判断"现在不需要打扰用户" → 不输出

关键设计:模型的"不行动"也是一种有价值的输出。 OpenClaw 的 HEARTBEAT_OK 机制抓住了这个精髓,但 NewClaw 不需要工程代码来实现——模型自己会做出这个判断。

6.4 行动执行器(Action Executor)— Bash 就是一切

CC 的核心发现:模型会自发用 bash 查 git 历史、用 grep 搜代码——最朴素的 glob + grep 效果超过精心设计的 RAG。

NewClaw 的内置工具采用最小集原则:

工具 用途
bash 万能瑞士军刀
read / write 文件读写
web_search 网络搜索
web_fetch 抓取网页
send_message 向用户发消息
memory_read / memory_write 记忆服务读写

没有的工具:

  • 专用文件搜索工具(bash + grep/find 即可)
  • 专用代码分析工具(模型直接读代码即可)
  • 专用日历管理工具(模型调 API 即可)
  • 预设的工作流模板

设计哲学来自 Claude Agent SDK 的核心原则:给 Agent 一台电脑,让它像人一样工作。

6.5 记忆服务(Memory Service)— 外部化,非 Session 内

借鉴斯坦福 Generative Agents 的三层记忆架构(记忆流 + 反思 + 规划),NewClaw 的记忆服务设计为独立进程:

记忆层 内容 存储方式
Layer 1: 事实记忆 用户说过的关键信息、偏好、习惯 SQLite + FTS5(关键词检索)
Layer 2: 情景记忆 重要交互的摘要、决策上下文 向量数据库(语义检索)
Layer 3: 反思记忆 模型自主归纳的高阶洞见 定期由模型自主生成和更新

核心规则:

  • 写入由模型自主决定(非全量保存)
  • 读取按语义相关性检索(非顺序回放)
  • 定期由模型自主做记忆整理(合并 / 遗忘)
  • 存储实现:SQLite + sqlite-vec(本地优先,零依赖)

这和 OpenClaw 的做法形成鲜明对比:OpenClaw 把所有对话原始记录存入 Session .jsonl 文件,大工具输出(396KB+ JSON)被永久保存,导致 Session 膨胀不可逆。

6.6 权限边界层(Permission Boundary)— 精确约束,非行为约束

CC 的精髓:不约束模型"怎么想",只约束"什么不能做"。

在这里插入图片描述

Level 0(自由区) 随模型能力提升逐步扩大,Level 3(禁止区) 永不缩小——这就是渐进式信任在权限模型上的具体体现。

和 OpenClaw 的 SOUL.md "不可变宪法"相比:

  • OpenClaw 试图约束模型"怎么想"(对话风格、行为准则)→ 容易被模型"聪明地"绕过
  • NewClaw 只约束模型"什么不能做"(发送外部消息需审批、删除数据被禁止)→ 边界清晰,无法绕过

7、核心交互流程

7.1 用户主动对话

用户                    NewClaw                    外部服务
 │                        │                          │
 │  "帮我分析这个API"     │                          │
 │───────────────────────▶│                          │
 │                        │                          │
 │                  [上下文组装]                      │
 │                  - 拉取用户画像和相关记忆           │
 │                        │                          │
 │                  [模型推理]                        │
 │                  "需要先搜索API文档"               │
 │                        │──── web_search ─────────▶│
 │                        │◀─── 搜索结果 ───────────│
 │                        │                          │
 │                  [模型推理]                        │
 │                  "找到了,分析可行性并画架构图"      │
 │                        │                          │
 │   可行性分析报告 + 架构图│                          │
 │◀───────────────────────│                          │
 │                        │                          │
 │                  [模型自主决定]                     │
 │                  "这个分析值得记住"                 │
 │                        │──── memory_write ───────▶│

7.2 模型主动触发(关键创新)

外部事件源              NewClaw                     用户
 │                        │                          │
 │  Sentry P0 告警         │                          │
 │  (Webhook推送)          │                          │
 │───────────────────────▶│                          │
 │                        │                          │
 │                  [上下文组装]                      │
 │                  - 用户关注的监控项                 │
 │                  - 最近的相关对话                   │
 │                  - 当前时间(静默时段?)            │
 │                        │                          │
 │                  [模型推理]                        │
 │                  "P0,用户要求立即通知"             │
 │                  "下午3点,不在静默时段"            │
 │                  "先查一下错误详情"                 │
 │                        │──── bash: curl sentry ──▶│
 │                        │◀─── 错误堆栈 ───────────│
 │                        │                          │
 │                  [模型推理]                        │
 │                  "和昨天讨论的auth改动有关"          │
 │                        │                          │
 │                        │   "⚠ 生产P0告警          │
 │                        │    auth模块空指针异常     │
 │                        │    可能和昨天改动有关     │
 │                        │    需要我帮你定位吗?"    │
 │                        │────────────────────────▶│

注意两个关键点:

  1. 模型自主关联了历史上下文(“和昨天讨论的 auth 改动有关”)—— 这是记忆服务的价值
  2. 模型以提问结尾(“需要我帮你定位吗?”)—— 这是"AI 提案,人类决策"原则的体现

7.3 模型决定不行动(同样重要)

外部事件源              NewClaw                     用户
 │                        │                          │
 │  GitHub PR bot评论      │                          │
 │  (Webhook推送)          │                          │
 │───────────────────────▶│                          │
 │                        │                          │
 │                  [模型推理]                        │
 │                  "这只是bot自动评论                │
 │                   不值得打扰用户"                   │
 │                        │                          │
 │                  [静默]                            │
 │                  零额外token消耗                    │  (用户无感知)

"不行动"是模型最有价值的决策之一。 OpenClaw 的 HEARTBEAT_OK 机制尝试实现这一点,但仍然需要消耗完整的心跳推理成本(170k-210k tokens)来得出"不需要行动"的结论。NewClaw 中,模型对事件的初步判断只需要极少的 token——不值得处理的事件直接静默。


8、与 OpenClaw / Claude Code 的关键对比

维度 OpenClaw Claude Code NewClaw
调度机制 Heartbeat + Cron(双系统冲突) /loop 单机制(用户触发) 事件驱动(模型自主判断)
触发来源 固定时间表(工程硬编码) 用户命令(被动为主) 真实事件流(模型决定响应)
行为约束 SOUL.md / AGENTS.md(文本约束 LLM) 系统提示词(渐进式删减) 权限边界层(只约束不能做的)
会话管理 永久 Session(熵增不可避免) 无持久 Session(每次独立) 无持久 Session + 外部记忆
主动能力 工程触发 + 模型内容(混合但冲突) 基本无(编码工具定位) 模型触发 + 模型内容(统一)
Token 效率 心跳 170-210k/次(Token 黑洞) 高效(按需使用) 静默时零消耗(事件驱动按需)
工具设计 专用工具 + 配置(TOOLS.md 列举) bash 万能(模型自由使用) 最小工具集 + bash 兜底
产品定位 自主 AI 伴侣(工程限制太多) AI 编程助手(编码场景专精) 自主 AI 伴侣(CC 哲学 + 伴侣定位)

NewClaw 的本质定位: 继承 OpenClaw 的产品愿景(主动式 AI 伴侣),但用 Claude Code 的架构哲学重新实现。解决了 OpenClaw 的三大核心问题——调度冲突、Session 熵增、约束失效——同时保留了主动触发的核心能力。


9、六种自主 Agent 设计模式的融合应用

NewClaw 的设计并非凭空创造,而是融合了学术界已验证的六种自主 Agent 设计模式:

在这里插入图片描述

9.1 各模式在 NewClaw 中的具体应用

模式 1:ReAct 推理-行动交错(ICLR 2023)

ReAct 的核心创新:推理轨迹(reasoning traces)和任务特定行动(task-specific actions)交错生成。在 ALFWorld 上绝对成功率提升 34%

NewClaw 应用:主循环的核心模式。模型自主决定"下一步做什么",无需预定义执行路径。

模式 2:Voyager 终身学习(NVIDIA, 2023)

Voyager 在 Minecraft 中实现了无人干预的持续自主探索,科技树关键里程碑解锁速度快 15.3 倍。核心洞察:不给 Agent 目标,给它工具和环境。

NewClaw 应用:记忆服务的技能积累。模型自主发现"下一步该学什么",积累可复用的技能和知识。

模式 3:Reflexion 语言化强化学习(NeurIPS 2023)

用自然语言替代梯度更新,单个 LLM 同时承担生成器、精炼器和反馈提供者。HumanEval 编程基准达到 91% pass@1,超越 GPT-4 的 80%。

NewClaw 应用:反思记忆层。模型将失败经验转化为高阶洞见,无需任何参数更新或训练基础设施。

模式 4:Generative Agents 记忆架构(Stanford, UIST 2023)

25 个 Agent 在虚拟小镇中自主传播邀请、结识新朋友、互相邀约——完全由模型自主行为驱动。

NewClaw 应用:三层记忆服务(事实 → 情景 → 反思)直接借鉴此架构。工程只提供存储接口,不干预决策逻辑。

模式 5:Self-Refine 自我精炼(NeurIPS 2024)

同一个 LLM 完成生成、反馈、精炼三个角色的循环,跨 7 项任务提升约 20%

NewClaw 应用:行动执行器的迭代模式。CC 的核心循环(执行工具 → 反馈结果 → 继续推理)本质就是 Self-Refine。

模式 6:事件驱动自主触发(Confluent Streaming Agents, 2025)

Agent 监控实时数据流,基于业务事件触发行动,而非人类请求。颠覆传统的请求-响应模型。

NewClaw 应用:事件收集器的核心设计。真实事件触发,非固定时间表。模型自主决定响应级别。

9.2 Anthropic 官方的实证支持

Anthropic 在《Building Effective Agents》中明确指出:

“最成功的实现不是使用复杂框架或专业库。相反,他们是用简单、可组合的模式构建的。”

这正是 NewClaw 的设计准则:不使用 LangChain、LangGraph 等框架增加抽象层,直接调用 LLM API,用最简单的代码实现最强大的能力。

来自 SWE-bench 的实证数据也支持这一点:同样的模型换不同脚手架,性能差距 11-44%,但"Agentless"简化方法依然有竞争力——过度工程化不是出路


10、技术选型

组件 选型 理由
运行时 Node.js / Bun 单线程 + 事件驱动天然契合主循环设计
模型接口 Claude API(主推理)+ 本地小模型(分流) 主推理用最强模型,简单判断用轻量模型
记忆存储 SQLite + sqlite-vec 本地优先,零依赖,向量检索内嵌
事件总线 内存 EventEmitter 轻量,单进程内够用
消息渠道 Telegram Bot API / Discord.js / … 按需接入
Webhook 内置 HTTP Server 接收外部事件
沙箱 Docker / macOS Sandbox Bash 执行隔离
部署 单进程,systemd / pm2 保持简单

刻意不使用的技术:

  • Redis / RabbitMQ(内存队列足够)
  • 独立向量数据库服务(sqlite-vec 内嵌即可)
  • 微服务架构(单进程,保持简单)
  • LangChain 等框架(直接调 API)
  • 数据库服务器(SQLite 本地文件即可)

Karpathy 的 autoresearch 项目给了我很大的信心:630 行 Python 代码,一晚上跑 50 个实验,全程无人工干预。 最强大的 Agent 不需要复杂的架构——只需要清晰的目标、合适的工具、和足够智能的模型。


11、总结与展望

11.1 核心公式

NewClaw = Claude Code 的架构哲学(单循环 + 渐进式信任 + bash 万能)
        + OpenClaw 的产品定位(主动式 AI 伴侣 + 多平台适配)
        + 事件驱动(替代 Heartbeat/Cron 双系统冲突)
        + 渐进式信任(替代 SOUL.md 硬约束)
        + 外部记忆服务(替代 Session 熵增)

11.2 一句话设计哲学

OpenClaw 试图用工程约束驯服模型的"过度智能",结果工程本身成了最大的问题。NewClaw 反其道而行:给模型环境和工具,让它自己决定做什么——就像 Claude Code 给了模型一个 bash,模型就自己学会了查 git 历史。

11.3 展望

CC vs Cursor 的这场对决告诉我们一个深刻的趋势:AI 产品的设计范式正在从"约束模型"向"释放模型"转变。

  • 2023-2024:工程化约束弥补模型不足(Cursor 路线)
  • 2025-2026:最少约束释放模型潜力(Claude Code 路线)
  • 未来:当模型能力继续提升,我们需要的工程化会越来越少

Boris Cherny 的那句话可能是 AI 产品设计领域最重要的一句话:

“Don’t build for today’s model, build for the model six months from now.”

NewClaw 正是这句话在 AI 伴侣产品领域的实践。我们不知道六个月后的模型有多强,但我们可以确定的是:给它更少的约束、更大的空间,它会做得比我们预想的更好。


参考资料:

  1. Boris Cherny 创作者访谈
  2. Pragmatic Engineer: Building Claude Code with Boris Cherny
  3. Every.to: How to Use Claude Code Like the People Who Built It
  4. Mikhail Shilkov: Claude Code 2.0 System Prompt Changes
  5. ZenML: Claude Code Agent Architecture
  6. Anthropic: Building Effective Agents
  7. Claude Agent SDK 官方文档
  8. ReAct: Synergizing Reasoning and Acting (ICLR 2023)
  9. Voyager: Open-Ended Embodied Agent (NVIDIA, 2023)
  10. Reflexion: Verbal Reinforcement Learning (NeurIPS 2023)
  11. Generative Agents: Interactive Simulacra (UIST 2023)
  12. Confluent: The Future of AI Agents Is Event-Driven
  13. Karpathy: autoresearch
  14. Medium: Cursor’s Dead and Claude Code Killed It
  15. OpenClaw Issue #17442 - Subagent completion callback infinite loop


🚀 持续探索 AI 与前沿技术

分享大模型应用、软件开发实战与行业洞察。
欢迎关注公众号 【龙哥AI】,加入 7000+ 技术同行的交流圈!

🌟 探索技术边界,让开发更有效率
公众号二维码
Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐