什么是Context Engineering?Anthropic说这比Prompt更重要
Anthropic提出Context Engineering比Prompt Engineering更重要,因AI工作记忆有限且存在上下文腐化问题。有效上下文管理需遵循三个原则:系统提示恰到好处、工具设计高效、例子典型精炼。针对长任务,可采用压缩、结构化笔记或多Agent架构技术。未来AI应用开发将向动态管理、按需加载和分布式协作方向发展,即使模型能力提升,将上下文视为稀缺资源的原则不变。
简介
Anthropic提出Context Engineering比Prompt Engineering更重要,因AI工作记忆有限且存在上下文腐化问题。有效上下文管理需遵循三个原则:系统提示恰到好处、工具设计高效、例子典型精炼。针对长任务,可采用压缩、结构化笔记或多Agent架构技术。未来AI应用开发将向动态管理、按需加载和分布式协作方向发展,即使模型能力提升,将上下文视为稀缺资源的原则不变。
什么是Context Engineering?Anthropic说这比Prompt更重要
Anthropic 的工程团队最近发了篇文章,提出一个新概念:Context Engineering(上下文工程)。
他们的观点很明确:构建 AI 应用的重点,正在从"怎么写提示词"转向"怎么管理上下文"。
什么是上下文工程
Context(上下文)就是发给大模型的所有 token——系统提示、工具描述、历史对话、外部数据等等。
传统的 Prompt Engineering 关注怎么写好提示词。但当 AI Agent 需要连续工作几小时、处理几十万字的信息时,光写好提示词不够了,你需要动态管理整个上下文。
原因很简单:AI 和人类一样,工作记忆是有限的。
研究发现,随着上下文长度增加,模型回忆信息的准确率会下降。这个现象叫"context rot"(上下文腐化)——就像人脑塞入太多信息后,会记不清哪件事更重要。
为什么会腐化
技术原因在于 Transformer 架构:每个 token 都要关注其他所有 token,产生 n² 个配对关系。
举个例子,10 个 token 产生 100 个关系对,1000 个 token 就是 100 万个。token 越多,模型的注意力越分散。
而且模型训练时,短序列比长序列多得多,它对处理超长上下文的"经验不足"。
所以,上下文必须被当作稀缺资源来管理。
有效上下文的三个原则
Anthropic 总结的核心原则是:找到最小的高信号 token 集合,最大化实现目标的可能性。
具体来说:
1. 系统提示要恰到好处
太详细会变成硬编码的 if-else 逻辑,脆弱且难维护。太模糊又给不出有效指导。要找到"金发女孩区间"——既具体到能指导行为,又灵活到能让模型自主判断。
2. 工具设计要高效
每个工具功能明确,不重叠。如果人类工程师都分不清该用哪个工具,AI 更做不到。Anthropic 说,"模糊的工具集"是他们看到的最常见失败模式。
3. 例子要典型而精炼
不要试图覆盖所有边界情况,而是提供几个多样化的典型例子。对 AI 来说,例子就是"一图胜千言"的画面。
从"预加载"到"即时检索"
传统做法是预先把所有相关数据塞进上下文。现在的趋势是"just in time"策略——保存轻量级的索引(文件路径、查询语句、网页链接),需要时才动态加载。
Claude Code 就是这么做的:分析大型数据库时,它不会加载完整数据,而是写针对性的查询,用 head
和 tail
命令分析结果。
这像人类的认知方式——我们不会记住所有信息,而是建立索引系统(文件夹、书签、收件箱),需要时再检索。
更妙的是,这些索引本身也提供信号。对于 AI,一个叫 test_utils.py
的文件在 tests
文件夹里,跟在 src/core_logic
里,含义完全不同。文件夹层级、命名规范、时间戳,都是重要的提示。
长任务的三种技术
对于跨越几小时的复杂任务,Anthropic 开发了三种技术:
1. 压缩(Compaction)
当对话接近上下文限制时,总结内容,用摘要开启新对话。
Claude Code 会保留架构决策、未解决的 bug、实现细节,丢弃冗余的工具输出。用户感觉不到中断,任务继续进行。
最简单的压缩是"清除工具结果"——一个工具调用完成后,为什么还要保留原始输出?
2. 结构化笔记
让 Agent 定期写笔记,保存在上下文窗口之外,需要时再读取。
Anthropic 举了个有趣的例子:让 Claude 玩《宝可梦》游戏。
AI 会自动记录:"过去 1,234 步,我一直在 1 号道路训练宝可梦,皮卡丘已经升了 8 级,目标是 10 级。"它还会画探索过的地图、记录解锁的成就、总结哪些攻击对不同对手最有效。
即使上下文重置,AI 读取笔记就能继续多小时的训练或探索任务。没有任何提示词告诉它该记什么,它自己学会了做笔记。
3. 多 Agent 架构
主 Agent 负责高层规划,子 Agent 处理具体任务。
每个子 Agent 可能用几万个 token 深度探索,但只返回 1,000-2,000 字的摘要给主 Agent。这样主 Agent 保持清晰的全局视野,子 Agent 负责深入细节。
Anthropic 的研究系统就是这样构建的,在复杂研究任务上表现明显好于单 Agent 系统。
选择哪种技术?
Anthropic 给出了建议:
- 需要大量对话往复的任务 → 用压缩
- 有清晰里程碑的迭代开发 → 用笔记
- 需要并行探索的复杂研究 → 用多 Agent
核心启示
这篇文章透露的趋势很明显:
- 从静态到动态:不再是一次性准备好所有信息,而是动态管理信息流
- 从全量到按需:不是把所有数据都塞进去,而是按需加载
- 从单体到分布:复杂任务用多 Agent 协作,而不是一个 Agent 硬撑
最有价值的观点是:“即使模型能力不断提升,把上下文当作宝贵的有限资源来管理,仍然是构建可靠 Agent 的核心。”
这就像编程中的内存管理——无论硬件多强大,优化内存使用永远重要。
唯一的区别是,随着模型变聪明,它们需要的"人工管理"会越来越少,自主性会越来越强。但把上下文当作稀缺资源这个原则,不会改变。
AI大模型学习和面试资源
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
更多推荐
所有评论(0)