收藏必备!大模型开发新范式:从提示工程到上下文工程完全指南
本文介绍了AI开发领域从"提示工程"到"上下文工程"的重要转变。文章详细解析了上下文工程的概念、要素及设计原则,包括系统提示优化、工具设计和示例精选。同时探讨了动态上下文检索和长时间任务管理策略,提出让AI像人类一样自主获取信息的思路。作者强调,随着模型能力增强,挑战已变为如何精心策划进入模型有限注意力预算的信息,为AI创造自主工作的环境,而非单纯编写完美提示词。
说实话,这两年AI发展得太快了,感觉每天都有新概念蹦出来。还记得去年大家都在热议"提示工程"吗?现在Anthropic提出了一个更重要的概念——上下文工程(Context Engineering)。
这事儿挺有意思的,让我跟大家分享一下我最近的学习心得。
什么?AI也有"注意力预算"?
我们先来理解一下为什么突然需要关注"上下文工程"。
Anthropic的研究发现了一个很有趣的现象:上下文衰减(Context Rot)。简单来说,就是当给AI的信息越来越多时,它的"记忆力"会变得越来越差。
这就像我们人类一样,如果一次性给你太多信息,你也会开始混乱,忘记重要的内容。AI也有一个"注意力预算",每个新的token都会消耗这个预算,所以我们必须精打细算地使用。
从提示工程到上下文工程
我觉得这个转变特别重要。提示工程关注的是如何写好一个提示词,而上下文工程关注的是整个信息生态系统的设计。
让我用一个简单的比喻来解释:
-
提示工程就像是给你一份详细的指令手册
-
上下文工程则是为你打造一个完整的工作环境,包括工具、资料、历史记录等
根据我找到的资料,上下文工程包括:
-
系统指令和行为规则
-
对话历史
-
用户偏好
-
实时API数据
-
文档和知识库
-
工具定义
-
格式指导
这确实比单纯的提示工程复杂得多,但也更接近AI Agent的实际工作方式。
如何设计有效的上下文
Anthropic在文章中提到了几个关键原则,我觉得特别实用:
- 系统提示要恰到好处
这就像是在给AI设置"工作状态",既不能太复杂(容易出错),也不能太简单(缺乏指导)。
建议把系统提示分成不同的部分:
-
角色定义
-
任务描述
-
工具指导
-
输出格式
- 工具设计要精简高效
工具就像是AI的"手脚",设计得好不好直接影响效果。
我发现一个很常见的问题:很多团队会提供太多功能重叠的工具,反而让AI不知道该用哪个。如果人类工程师都不能明确说清楚在什么情况下用哪个工具,那么AI Agent也不可能会做得更好。
- 示例要精心挑选
给AI看示例就像给它"教科书",关键是质量而不是数量。与其堆砌大量边缘案例,不如精心挑选几个典型的例子。
动态上下文检索:让AI自主探索
这个概念我觉得特别酷。传统的做法是把所有可能需要的信息都预先加载到上下文中,但这样会占用宝贵的"注意力预算"。
新的思路是让AI Agent像人类一样,只在需要时才去查找信息。比如:
-
保留轻量级的标识符(文件路径、存储查询、网页链接等)
-
在运行时动态加载数据
-
利用文件系统层次结构、命名规范等元数据来理解信息
Anthropic的Claude Code就是用这种方式处理大型数据库的。模型可以编写针对性的查询,存储结果,然后使用head和tail等命令来分析大量数据,而不需要将完整的数据对象加载到上下文中。
长时间任务的上下文管理
对于需要长时间运行的任务(比如代码库迁移、综合研究项目),上下文窗口的限制就成了大问题。Anthropic提出了几种解决方案:
- 压缩(Compaction)
当上下文窗口快满时,对对话内容进行总结和压缩,然后用这个摘要重新开始新的上下文窗口。
这就像是我们读完一本书后,会做一个读书笔记,然后带着这些笔记继续学习下一本书。
(就像claude code的 /compact命令一样)
- 结构化笔记(Structured Note-taking)
让AI Agent定期写笔记,这些笔记保存在上下文窗口之外,需要时再调用回来。
这个技术让我想起了Claude玩宝可梦的例子。Agent会精确跟踪数千个游戏步骤中的各种数据,比如"在路线1训练了1234步,皮卡丘获得了8级,距离目标10级还差2级"。它还会绘制探索区域的地图,记住解锁的关键成就。
- 多Agent架构
与其让一个Agent试图维护整个项目的状态,不如使用专门的子Agent来处理特定的任务。主Agent负责高层规划,子Agent负责深度技术工作。
这种方法在复杂研究任务中显示出明显优势,每个子Agent都可以深入探索,但只返回精炼的摘要。
这对我们意味着什么?
看到这些发展趋势,我觉得既兴奋又有点压力。一方面,AI的能力越来越强,另一方面,我们也需要不断学习新的思维方式。
上下文工程不仅仅是技术问题,更是一种思维方式的转变。我们需要从"如何告诉AI做什么"转向"如何为AI创造一个能自主工作的环境"。
实用建议
根据Anthropic的经验和我的理解,给大家几点建议:
-
从小处开始:先用最简单的模型测试基本功能,然后逐步增加复杂性
-
关注信号质量:不要堆砌信息,要找到那些真正能帮助AI做出正确决策的关键信息
-
让AI自主探索:给AI合适的工具,让它能够根据需要自主获取信息
-
考虑长期任务:如果Agent需要长时间工作,要设计合适的记忆和上下文管理策略
-
保持简单:"做最简单有效的事情"仍然是最好的建议
上下文工程代表了AI开发方式的根本转变。随着模型变得越来越强大,挑战不再是如何编写完美的提示词,而是如何在每个步骤中精心策划进入模型有限注意力预算的信息。
说实话,这个领域还在快速发展,但我觉得这种"思维方式的转变"是最重要的。我们需要学会像 architect 一样思考,而不是像操作员一样思考。
AI Agent的未来不在于我们给它们多少指令,而在于我们为它们创造了什么样的工作环境。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01 教学内容
-
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
-
大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03 入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04 视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05 行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
06 90+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
更多推荐
所有评论(0)