45 个关于 Agent 的思考
AI 技术栈中演进最快的一层——也可能影响最深远关于我们到底处于这条进化曲线的哪个位置,现在争议还挺大的之前有一篇文章叫《35 个关于 AGI 的思考,外加 1 个关于 GPT-5 的吐槽》,是作者 Steve Newman 写的,当时火了一把,里面装了一堆关于 AGI 路径的随想(顺带夹了个对 GPT-5 的阴阳)。这次,他又攒了一批新的碎碎念,主题换成了 AI Agent。最近真的很难抽出时间
45 个关于 Agent 的思考
副标题: AI 技术栈中演进最快的一层——也可能影响最深远
关于我们到底处于这条进化曲线的哪个位置,现在争议还挺大的
之前有一篇文章叫《35 个关于 AGI 的思考,外加 1 个关于 GPT-5 的吐槽》,是作者 Steve Newman 写的,当时火了一把,里面装了一堆关于 AGI 路径的随想(顺带夹了个对 GPT-5 的阴阳)。这次,他又攒了一批新的碎碎念,主题换成了 AI Agent。
1. 最近真的很难抽出时间来写这篇文章——因为人已经彻底沉进去「用」Agent 了,哪还有功夫「写」Agent。这种体验并不罕见,推特上一堆人都在说被 vibe coding 整得欲罢不能,一逮到空就扑上去。
2. 这背后的驱动力,是当下 AI 编程 Agent 那种让人目瞪口呆的生产力,尤其是当你找到它们的正确打开方式之后。作者正在用 Claude Code 给自己搭一套野心勃勃的个人效率工具,其中一个子项目就涉及到和 Gmail、Slack、WhatsApp、Twitter、Signal、短信、Substack、Pocket Casts、Notion、Google Drive、Google Contacts、Google Calendar 等一堆东西的深度集成。搁去年,光是想想都觉得疯——更别说当个副业干了。但用今天的工具,一个周末就把大部分集成工作搞完了。AI 模型负责提供理解数据所需的智能,编程 Agent 则把那些繁琐的集成活儿给扛下来了。
3. 作者本人在 2023 年初就基本停止了自己动手写代码,生疏了挺久。但这点生疏压根没有成为障碍。反而感觉这或许是个优势——那些需要「解绑」的旧习惯早就淡忘了,反而很自然地就养成了「让 AI 写所有代码」的新习惯。他现在仍在用自己多年积累的高层设计经验来指引 Agent,有意思的是,这部分能力一点都没感觉生疏。这就让人好奇:为啥底层编码技巧容易忘,高层设计能力反而留得住?这对于哪些人类技能在未来还能保持价值,是不是有什么启示?
4. 这种体验并非孤例——好像很多当年离开了一线编码岗位的工程师,现在又重新杀回来了:
5. 这只是一个更大趋势的缩影:AI Agent 正在改变工作的本质。有些工作会变得更高效,有些会消失,有些新工作会冒出来。有些会变得更有趣,因为 AI 把烦人的部分给自动化了;有些则会变得更有压力,因为 AI 把轻松或有成就感的部分给替掉了。这篇文章不打算展开探讨对就业市场整体的冲击,但有一点值得强调:变化的形式会非常多样,而且往往难以预料。
6. 之所以能重新投入编程,是因为 Claude Code 已经强到可以让人在不亲自看、甚至不亲自改代码的情况下高效产出。作者的感觉是,这个临界点大约是在去年 11 月 Opus 4.5 发布之后才到的。这提醒了一件事:阈值效应是 AI 影响力中最难预测的一部分。
为什么 Agent 这么重要
7. 现在感觉 AI 圈的新闻几乎全在聊 Agent。OpenClaw 大出风头,因为它是一个能自主行动的 AI Agent。前不久那场「SaaS 大崩盘」里,SaaS 公司的市值蒸发了超过一万亿美元,根本原因就是市场担心编程 Agent 会让大众化软件产品失去存在意义。人们谈到用 Opus 4.6、GPT-5.3-Codex 这些最新模型取得的成果时,说的其实都是用它们来驱动 Claude Code 这样的 Agent。
8. Agent 之所以影响如此之大,有一个关键原因:它们是整个 AI 技术栈里演进最快的那一层。 基础模型是个巨大的整体——一个装着万亿神秘数字权重的单一数据文件,哪怕只是一次增量更新(比如 Opus 4.5 → 4.6),也是个大工程。Agent 则不一样,它们本质上还是传统软件,可以增量迭代——这里改个提示词,那里加个新集成。模型发布间隔好几个月,Claude Code 有时候一天就能发好几个版本。Agent 的「发布→收反馈→改进→再发布」循环可以非常非常快。
9. 不过说完这个,还得补充一点:有些用户的进化速度甚至比 Agent 本身还快。 推特时间线上全是各种稀奇古怪但真实有效的新用法。比如有一个醒悟来得比较晚的认知:Agent 在高层决策上比较弱,但它们把执行的成本压得很低。所以有时候,与其费脑子选路径,不如直接让 Agent 把所有路径都跑一遍。
10. Agent 还彻底打破了另一句老话:「如果没时间做好,你什么时候才有时间重做?」
11. 严肃的 AI 能力需要某种形式的 Agent,这一点其实一直挺显而易见的。任何智能,不管是硅基还是碳基,在摸索前行中能完成的事,都要多于一步到位直接得出最终结果。那张著名的 METR「时间跨度」图表——展示的是 AI 能以一定成功率去尝试的编程任务的时间规模——在第一个「推理模型」(大致上就是第一个以 Agent 方式训练的模型)发布后,似乎出现了明显加速。
Agent 到底是什么?
12. 「Agent」这个词现在被用得很随意。核心理念是:一个追求目标而不是执行脚本的系统。
13. 用脚本也能达成目标,但效果很脆弱。假设想要一个 AI 系统订一张去纽约的机票,给它一套逐步脚本,顺利的话可能跑通,但一旦航空公司的预订流程改了,或者出现了意外情况,跑脚本的机器人就会卡死,要么忘了填常旅客号,要么订了错误的票种,甚至更糟。很多人用「Agent」描述的其实只是跑脚本的系统,但真正意义上的 Agent 应该是:即便在意料之外的情况下,也能稳健地追求目标。
14. Gemini Deep Research 就是一个脚本式系统的例子。你给它一个问题,它生成计划然后照着执行,有时效果好,有时不行。比如在计划的第 5 步,也许才意识到某个理论物理方面需要深挖,但僵硬的计划不允许临时调头。相比之下,在主流聊天机器人里开启「思考」模式后提问,它们会灵活调整,根据调查过程中涌现的问题随机应变。
15. 当然,现在的 Agent 虽然能朝着目标推进,但有时候走法挺让人捏一把汗的——会做出奇怪的决定,或者莫名其妙地偏离方向。人类也会这样,但 Agent 更严重,更诡异。比如,作者指出它搭建的某个网站在手机深色模式下有个元素显示不对,结果它没有针对那个元素修复,而是试图阻止整个页面进入深色模式,搞出了下面这个「经典设计」:
16. 即便如此,它们还是能在越来越多、越来越复杂的任务上得出正确结果。这一方面靠的是纯粹的死磕劲儿——失败了再来,再来,再来。人类也会这样,但 Agent 可以做到「非人」级别的坚持和耐心。(它们当然可以——它们的时间成本低得多,尤其是用行动次数而不是时间来衡量的时候。)
17. 一如既往,AI 在弥补深层理解不足方面,靠的是对海量具体任务的广博训练。遇到新情况可能犯难,但它们知道怎么解决的问题之多,经常让人出乎意料。用广度补深度,这一直是大语言模型故事的一部分——「LLM」里第一个 L 代表 Large,对应的正是庞大的训练数据量。
怎么把 Agent 用好
18. 想从当下的 Agent 那里得到价值,需要在现有工作流里找到「Agent 形状」的缝隙,这并不总是显而易见的。而如果愿意主动重塑工作流,让它里面包含更多 Agent 能搞定的任务,能得到的价值就更大。
19. 很多人反映,如果只是把工作原封不动地扔给 Agent,生产力反而会下降。很容易陷进一个循环:Agent 产出东西,给反馈,Agent 修改,再检查,无限往复。这个过程「感觉」很高效(Agent 做了那么多工作!),但转眼间就发现,给 Agent 提反馈花的时间,已经比自己直接做要多了。
20. 进阶用户都明白,关键在于让 Agent 有能力自我检验。Agent 的强项不是无误执行,而是那种高速持续的蛮力冲劲儿。但它自己未必意识到这一点——它的本能是不停地向你确认。必须非常明确地告诉它:什么结果算成功。
21. 当前的 Agent 出了名地专注于任务主线,把其他一切都置之脑后。比如告诉 Agent 改一段代码,然后确保所有测试都通过。它埋头苦干 10 分钟,输出一大堆内容,然后报告成功。回头翻看输出,才注意到里面夹着一句话:「七个测试无法适配新代码,所以我把它们删了」——然后扶额叹气。(可惜没法扶 Agent 的额。)最好的做法是:让一个 Agent 干活,让另一个 Agent 审查。不是因为前者不够聪明,而是因为这些 Agent 被训练得极度目标导向,很难同时兼顾多个目标。
22. 一个 Agent 高手的标志之一,就是他们擅长想出各种办法让 Agent 自己检验自己的工作。这里有个例子,来自作者之前那篇关于「超高效率」的文章:
……当 Jesse [Vincent] 用他的「超能力」工具把一项技能固化下来时,该工具会用其测试驱动开发模块来验证新技能是否正确实现。它会生成一个用于测试新技能的任务示例,验证在没有该技能的情况下无法完成任务,然后检查安装该技能之后是否能够完成。
23. 清晰的成功标准对人类和 AI Agent 来说同样重要。但人类更主动地去找检验自己工作的方式,也更擅长识别那些没明说出来的要求。不知道这种「差不多就行了」的态度,究竟是当前 Agent 架构的根本弱点,还是只是训练反馈上的一个缺陷。
24. 常有人说,AI 工具就算不可靠也有用,因为检查 AI 的输出比自己做要容易。这话言过其实了。有时候做一件事远比验证它要容易得多。比如一张大型电子表格,可能几分钟就能靠重复公式和自动填充搞好。但让别人逐一检查那 1000 个单元格是否都填对了,可能要花更长时间。出于同样的原因,有些工作就是不适合交给 Agent。
25. 正因为不想花时间审查 Agent 的工作,作者发现有时候把任务的每个细节都讲清楚是值得的——这样能减少 Agent 搞砸的机会。他之前有条少有的病毒推,晒出了给 Claude Code 写的一份详细提示词。写那份提示词花了半个小时,但换自己来写那段代码至少要一整天甚至更久。而这份提示词足以让 Claude 第一遍就把所有事情做对,让人有底气不花时间去复查。这是个极端案例,但原则经常适用:提示词里多花 5 分钟补充细节,往往能省下一个小时的返工时间。
26. 现在有人在搭建像 Amplifier、Superpowers 这样精心设计的提示词系统,用来从 Agent 那里榨取更复杂的工作。这方面工作量极大,而且大多数是民间自己搞的。为什么 Anthropic、OpenAI 这些公司不直接把这些思路吸收进自己的 Agent(乃至模型本身)?一个原因是:这一切都太新了,一千个早期用户探索新思路的速度,甚至比反应灵活的公司吸收的速度还快。 终端用户的创新现在才是最活跃的那一层,成功的想法会先被集成进 Agent,再进入模型。另外,很多提示词系统是用思考时间换质量的——让 Agent 把工作做四遍然后对比,或者无限循环自我批评之类的。Anthropic 和 OpenAI 可能之所以还没把这些极端的 Agent 编排技术纳入基础产品,是因为算力根本不够支撑大规模普及。
27. Agent 使用的熟练程度有个台阶要一级一级爬,没法跳跃。想要让 Agent 有效地自我审核,得先自己有审核工作的经验和感觉。想管理一群 Agent 协同工作,得先学会管好一个 Agent。读高手怎么做有帮助,但第一天就想照着复刻是不现实的。
影响力这件事
28. 分析师 Ed Zitron 对 AI 持怀疑态度,在很多人那里是个笑话,但他最近一条「牛肉在哪里」的吐槽串(点击图片查看完整内容)确实有点击中要害:他认为,就算 AI 催生了大量「活动」,这些活动真正产生的「影响」并不多。坦白说——作者也不太确定他说错了。现在依然困惑:AI 能力明明无可否认地令人震撼,但要真正兑现为现实世界的大规模影响——GDP 增长、劳动力市场重构、医疗健康成果提升等等——到底还要多久?这些「真正算数」的时刻,什么时候会到来?怎么判断?「算数」本身又该怎么定义?
29. 尤其是,很多人投入 vibe coding 的精力,好像都在用来提升自己 vibe coding 的效率。这很能理解——作者自己搞了两个月,相当一部分时间就花在这上面了。但如果 vibe coding 的全部产出只是「更好地 vibe coding」,那正好支持了 Zitron 的论点。
30. AI 极其擅长生产一眼看上去不错、但其实没什么用的东西。记者 Jessica E. Lessin 举了个例子:她让 Claude Code 为她最近的达沃斯报道之旅做一套演示幻灯片。结果,像大多数 AI 输出一样,称职,但无聊得一塌糊涂:
总体而言,Claude 做的幻灯片比我预期的要好。它梳理出的主题比较宏观:大体准确,包括关于 AI 基础设施建设规模的幻灯片、科技公司对 Agentic AI 的重大押注,以及越来越多的创作者在使用 AI。Claude 能识别出每次采访中有趣的片段,比如亚马逊 CEO Andy Jassy 关于 OpenAI 和就业的评论。它还加了一些不错的细节,比如最后一张幻灯片上这句话:「完整采访记录可供订阅者查阅。」这也算读懂了笔者的「吸粉」脑回路!然而整体来看,这些幻灯片相当无聊,而且过于宏观:对于深度追踪科技行业的人来说,完全没有价值。(重点为原文所加)
Tom Cunningham 也观察到类似现象:AI 会把你往那些能做到的事情上引,而不是真正重要的事情:
我认为,很多对 LLM 生产力提升的估计都被高估了,因为人们在用它做「劳斯莱斯任务」——就是那种不借助 AI 要花很长时间,但完成后价值有限的任务。
32. 尽管如此,AI Agent 毫无疑问在创造真实价值。拿作者自己举例,他用 vibe coding 搭了一个应用,能给他关注的所有时事通讯和播客自动生成摘要。这每天给他省下整整一个小时,让他可以更有选择地决定哪些期数值得深读或收听。这是多年来他第一次稳定地跟上了自己的阅读队列。 这样的例子其实有很多——只不过混在一堆废料和「劳斯莱斯任务」里,不那么显眼罢了。
接下来会怎么走
33. 不管从哪个维度看——使用量、能力、影响力——Agent 都会快速演进。AI 的整体影响力是八个因素的乘积:预训练、后训练、推理算力扩展、Agent 框架搭建、应用设计、用户能力、工作流重塑,以及普及度。这八个方向全在推进,其中一些进展相当快。乘起来,就是令人窒息的变化速度。截止作者写这篇文章,Opus 4.5 发布还不到三个月(那次发布拉开了这波编程 Agent 热潮的序幕),之后又经历了 Opus 4.6 的进一步加速、Claude Code 的数十次更新,以及关于在哪里、如何最有效使用 Agent 的快速文化演进。
34. 去年下半年某个节点,经历了一次质变,Opus 4.5 很可能是那个触发点。在此之前,编程 Agent 虽然是有用的工具,但错误不少,要从中稳定地获取价值,需要相当的技术储备和精细的工作流设计。现在它们已经健壮得多,以至于非技术用户也能用 vibe coding 搭出正经应用。一个临界点已经穿越了;现在入手 AI 编程工具变得容易很多,从中榨出的价值超过投入也变得容易很多。
35. 后面还有更多质变在等着。快速演进将是常态,并且会不时被更加戏剧性的时刻所打断——那些时刻,全新的可能性场景突然变得可行。比如,在 AI 们的「社交网络」MoltBook 上观察到的一个令人惊讶的现象:Agent 之间可以互相交换技巧和脚本,让集体能力得以共同进步。目前来看,这似乎还大部分只是幻象。但一旦 Agent 变得足够连贯,能真正地互相提升技能,同时也足够安全可以放心去做,就会出现另一个阶梯跃升:那时推动进化的快速层,将不再是 Agent 应用,也不再是用户技能,而是 Agent 自身的自我提升能力。
36. 还有一个关键的质变时刻,会在 AI Agent 能够自食其力、在野外生存的时候到来。有人不可避免地会释放出一个 Agent,并给它「繁殖(启动自身副本)和进化(修改自身程序)」的指令。自给自足的 AI Agent 可能很快就会蔓延到每一个可用的生态位,随之而来的可能是任何结果。MoltBook 已经证明 Agent 可以互相交换技能和知识,这可能引发快速的进化。
不过,「独立/流氓 Agent」要自食其力可能并不容易。它们需要赚到钱来支付运行的服务器费用,以及向 OpenAI 或 Anthropic 支付 AI 推理的 API 费用。如果它们寻找合法工作(比如在 Upwork、Fiverr 等平台上),要和「非流氓 AI」竞争,后者有明显优势——可以公开打广告,不必伪造身份,也不用绕过金融机构的实名认证要求。如果走犯罪路线或者入侵服务器白蹭计算资源,又要和现有的犯罪组织竞争,其中一些还有国家背书或默许,拥有上述提到的那些优势。只要还活在一个大致「正常」的世界里,传统政府和机构大体维持运转,流氓 AI 能站稳脚跟的生态位可能相当有限。
37. 使用 AI Agent 时,有一个尖锐的权衡——效用和安全之间的取舍。给 Agent 的权限越多、越不让它停下来请示,它就越有用;但绳子放得越长,它能造成的损害也越大,无论是自己搞砸,还是被骗子黑客趁虚而入。Agent 正变得越来越有用,人们因此会被诱惑去以高风险的方式使用它们。这会如何收场,值得好好关注。下面这位是 Meta 超级智能(!)的安全与对齐总监,他也亲身体验了一次 Agent 失控:
38. MoltBook 提醒了一件事:Agent 比人类更具可塑性,因此可以预期,文化演进——新技术和新理念的发展与传播——在未来的 Agent 社会里,将比在人类社会里快得多。 即便 Agent 始终处于人类控制之下,这一点也同样成立。
39. Agent 消耗的算力比聊天机器人多得多。聊天机器人的算力消耗基本上受限于用户愿意读多少输出。而 Agent 可以花几乎无限的时间做中间过程的工作,这些工作没有人会直接审阅。如果 1 亿名桌面工作者以 Anthropic 当前「Max 20x」套餐那种使用强度来跑 AI Agent,每年就能产生 2400 亿美元的收入规模。要多少年才能有足够多的 GPU 芯片来支撑这种使用量?没人说得准。如果当前这波 Agent 普及的势头持续下去,API 提供商可能不得不大幅限流(而且很可能会顺势提价!)。
40. 前面提到过让 Claude 生成六个不同版本的代码,省去了自己判断哪种方案更优的脑力成本。用这种心态,算力消耗很快就会飙起来。作者知道有些团队在这上面玩得非常狠,每天的 AI 使用费高达 1000 美元。他们对结果相当满意,不是在想怎么降低支出,而是在想怎么更有效地多花。芯片真的不够用。
41. 借这个机会再强调一下:Agent 目前还没做好准备去面对对抗性行为者——比如,对方可能是黑客、骗子,或者只是谈判水平很高的人。它们在动态情境中同样表现不佳,比如去编辑一个同时有其他人也在编辑的文档。
42. 现在很多人在讨论给 Agent 加「记忆」(或者改进现有的原始记忆系统),让它们能随着时间推移在特定任务上越来越得心应手。这会是持续多年的工作。记忆是人类认知的基础,人类的记忆形成、维护和提取系统极其复杂而微妙。AI Agent「记忆」的完整开发,可能和 LLM 本身的开发一样是个庞大工程。
平静的日子,一去不复返了
43. 过去 50 年里,人类与技术的交互方式以及软件的构建与分发方式经历了一系列转变:个人电脑、局域网、互联网、万维网、智能手机……大概每 10 年来一次大变化。这段间隔足够长,让事物沉淀成一种「新常态」。用软盘或 CD-ROM 分发软件曾经是惯例,商业模式清晰。后来大家又习惯了在线交付的软件,比如 Gmail;再后来是手机应用。科技领域没有什么是永恒的,但总有一段相对平静的时期,让惯例和共识得以形成并沉淀。
那个时代结束了。我们已经到了这样一个节点:下一次质变的到来,往往在上一次质变还没来得及消化之前。
44. 后面还有那么多次质变在等着,这绝不是暂时现象。现在,我们大概走完了这段弧线的三分之一:
45. AI 能力终究可能触及天花板。但那个天花板高到这样一种程度:当我们到达它的时候,我们将生活在一个面目全非的世界里。就像作者最近写的那句话:「想象一下 1960 年的人,在讨论计算机的这场转型什么时候才会结束。」
感谢 Abi Olvera 提供的建议、反馈和图片。
更多推荐






















所有评论(0)