收藏 | 从Prompt到Agent,小白也能轻松掌握大模型核心概念与实战
是我们与 AI 交流的沟通质量。RAG是 AI 扩充知识库的技术手段。MCP是连接 AI 与外部世界的标准化物理接口。Skills是将重复流程打包成的自动化指令集。Agent是将上述能力整合,能自主思考并执行任务的终极形态。则是 Agent 在软件工程领域的硬核应用。对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?答
本文通过实际案例,系统地解释了Prompt、Context Engineering、RAG、Agent、Skills、MCP和Claude Code等AI领域核心概念之间的联系与区别。从基础的Prompt Engineering优化指令,到提供详尽背景的Context Engineering,再到利用RAG检索最新信息、MCP连接外部数据源、Skills封装自动化流程,以及Agent的自主任务执行能力,文章逐步深入,帮助读者全面理解大模型工作原理,并掌握提升AI交互效果的关键方法。
1、Prompt 与 Prompt Engineering
我们平时与 AI 交互时输入的文本就是 Prompt(提示词)。它是我们向 AI 提出的问题或请求,是 AI 生成回答的基础。
如果直接输入简单的 Prompt:
帮我开发一款新标签页浏览器插件。
这种简单的描述往往会导致 AI 生成的回答不够准确或过于笼统,无法直接投入使用。
于是产生了 Prompt Engineering(提示词工程)的概念。它是指通过设计、优化和结构化 Prompt,来引导 AI 生成更准确、相关和有用的回答。
优化后的案例:
你是一名资深 Chrome 插件开发工程师。请帮我开发一个 Chrome New Tab 插件,要求:1. 替换浏览器新标签页;2. 显示当前时间;3. 支持 Todo List;4. 支持用户上传背景图片;5. 使用 localStorage 保存数据;6. UI 简洁现代;7. 使用 HTML + CSS + JavaScript 实现。
通过明确角色定位和具体功能点,AI 能更清楚地理解需求,生成更符合预期的代码。
2、 Context Engineering(上下文工程)

上下文工程 vs 提示词工程
虽然 Prompt Engineering 优化了指令,但在复杂任务中,信息依然显得单薄。Context Engineering(上下文工程)更进一步,它侧重于提供极其详尽的背景信息、约束条件和参考资料,以消除 AI 的理解歧义。
深度 Context 示例:
你是一名资深 Chrome 插件开发工程师,精通 Manifest V3。请帮我开发一个 Chrome New Tab 插件,具体要求如下:1. 替换浏览器新标签页。2. 显示当前时间(格式:YYYY-MM-DD HH:mm:ss,每秒更新)。3. 支持 Todo List(增删改查,使用 localStorage 持久化,默认展示三个示例条目:“买牛奶”、“写周报”、“健身”)。4. 支持用户上传背景图片(使用 FileReader 读取并存储为 Base64 到 localStorage,图片需覆盖全屏,支持暗色遮罩层以提高文字可读性)。5. UI 简洁现代:时间居中大号显示;Todo List 置于右下角,半透明毛玻璃卡片;底部有一个上传按钮。6. 使用纯 HTML/CSS/JavaScript 实现,不使用任何外部框架或库。7. 必须符合 Manifest V3 规范,提供完整的 manifest.json、newtab.html、styles.css、script.js,并注明图标尺寸要求。8. 项目结构需清晰,所有文件放在一个文件夹中,直接可用。附加参考:- 官方文档中关于 newtab 替换的权限声明为:"chrome_url_overrides": {"newtab": "newtab.html"}- localStorage 存储示例:{ todos: ["买牛奶", "写周报"] }- 背景图片上传后应保持 aspect ratio 并 cover 整个页面。- 时间区域采用 24 小时制。
从上面的例子可以看出,通过提供更多的上下文信息,AI 能够更准确地理解我们的需求,从而不会生成一些不相关或错误的回答。
简单来说,其实 Prompt Engineering 是优化过 Prompt,而 Context Engineering 则是提供更多的背景信息来帮助 AI 理解问题。
Context Engineering 本质还是 Prompt Engineering,只不过它更侧重于提供上下文信息。让我们在设计 Prompt 时,不仅要关注问题本身,还要考虑提供足够的背景信息来帮助 AI 更好地理解和回答问题。
3、 RAG(Retrieval-Augmented Generation,检索增强生成)

RAG
AI 的知识库存在截止日期。如果问 AI 一个发生在训练数据之后的事情,它可能会“一本正经地胡说八道”。
假设,AI 的知识截止日期是 2026 年 2 月,那么在这之后发生的事件,或者是一些比较新的技术,AI 就可能不知道了。
比如,如果我问 AI:
给我推荐 2026 年 3 月最新的技术文章。
如果只靠它自己的记忆,他可能答不上来,或者只能瞎猜。
这时候,你给了他一个超级能力:在回答问题之前,可以用搜索引擎去检索相关的信息,然后再基于这些信息来生成回答。
它的核心流程是:
- 检索:根据你的问题,从一个“知识库”(比如文档、数据库、网页)里找出最相关的几条信息。
- 增强:把这些信息和你原来的问题拼在一起,形成一个“增强版提示词”。
- 生成:把增强后的提示词交给大模型,让它生成最终答案。
这样做的好处是:
- 知识新鲜:模型可以获取最新信息,不依赖过时的训练数据。
- 答案可信:生成的内容有据可查,减少胡说八道。
- 个性化:知识库可以包含用户个人数据(比如浏览历史、笔记),实现定制化回答。
这个“先查资料,再回答问题”的过程,就是 RAG(Retrieval-Augmented Generation,检索增强生成)。
通过这种方式,AI 就能够提供更准确、更相关的回答,而不是仅仅依赖于它的训练数据。
看到这里,你可能会想,这不就是在给 AI 提供更多的上下文信息吗?为什么还要单独提一个 RAG 的概念呢?
RAG 其实是实现“上下文工程”的一种关键技术。上下文工程的核心是“如何给模型填充正确的信息”,而 RAG 就是那个“自动检索正确信息”的引擎。有了 RAG,上下文就可以动态变化,而不需要手动写死。
所以,RAG 是一种技术手段,而上下文工程是一个更广泛的概念。上下文工程可以通过多种方式来实现,而 RAG 是其中非常重要的一种方式。
4、 Agent Skills(技能)

Agent Skills Context Window
一个多月前,我写了一篇文章,介绍了 Skills 的概念。《Agent Skills 到底是什么,从使用到原理,以浅显易懂的方式讲清 rules 、skills 、mcp 的区别》。这里我就不再赘述 Skills 的定义了,直接通过一个例子来说明它的作用。
在开发新标签页插件每次发布新版本时,我们可能会有一些固定的步骤,比如:修改 manifest.json 里的版本号、压缩所有文件打成 zip 包、打 Git Tag、生成 Release Note。
如果没有 Skills,我们每次都要手动去做这些步骤,既麻烦又容易出错。
核心说明书:SKILL.md
这是技能的灵魂。头部是 YAML 格式的元数据(让 AI 知道什么时候该用它),正文是具体的执行指令。
---name: publish-extensiondescription: 自动执行Chrome插件的新版本发布流程。包括更新manifest.json版本号、打包zip压缩包以及提交Git。当用户要求“发布插件”、“打个新包”或“发个新版本”时触发。---# Chrome 插件发布流程 SOP## Instructions (执行指令)当你需要发布 Chrome 插件时,请严格按照以下步骤执行:1. 询问用户本次发布的版本更新类型(patch/minor/major)以及一句话的更新日志。2. 使用 bash 运行本目录下的 `publish.py` 脚本,并将用户提供的参数传给脚本。 运行命令示例:`python publish.py --type minor --message "新增Todo List功能"`3. 脚本执行完毕后,读取脚本的输出结果,并用简短的话告诉用户发布已完成,以及生成的压缩包名称。## 注意事项- 永远不要尝试自己去手动修改 manifest.json,必须调用 `publish.py` 来保证流程的稳定性。
限于篇幅,我就不贴 publish.py 的代码了,核心就是根据用户输入的版本更新类型和更新日志,自动修改 manifest.json 里的版本号,打包成 zip 包,并提交 Git。
但有了 Skills,你可以直接写一个名为 publish_extension(发布插件)的技能。这个技能内部直接封装了上述所有繁琐的节点。
下次代码写完,你只需要对 AI 说一句:“帮我发个新版本。” AI 就会自动调取 publish_extension 这个技能,帮你完成所有发布插件的步骤。
Skills 的核心价值在于:它把那些重复性、流程化的东西固定下来,形成一套 AI 专属的 SOP(标准作业程序)。这样一来,不仅提高了效率,还减少了出错的可能性。
5、 MCP(Model Context Protocol,模型上下文协议)

MCP
你可以把 MCP 形象地理解为 AI 界的“Type-C 万能接口标准”。正如 USB-C 为各种电子设备提供了标准化的物理连接方式一样,MCP 为 AI 应用(如 Claude、ChatGPT 等)连接外部世界提供了一套标准化的通信规范。
简单来说,AI 只知道预训练的数据,它无法感知外部的数据源。比如,如果你想让 AI 访问互联网、数据库是做不到的。
你可以会说,不对啊!为什么 ChatGPT 、Claude 等这些大模型都能访问互联网搜索信息呢?
其实,我们平时在 web 端使用的 ChatGPT、Claude 等大模型,并不是直接在模型上进行交互的,而是基于大模型开发的应用。
有了 MCP 这个标准接口,我们就可以基于它来构建各种各样的 MCP 服务,让 AI 能够通过这个 MCP 服务访问外部的数据源、工具等。
比如,我们可以开发一个 MCP 服务,专门用来访问互联网搜索引擎。当 AI 需要获取最新的信息时,它就可以通过这个 MCP 服务来进行搜索,然后把搜索结果返回给 AI。
或者,我们可以开发一个 MCP 服务,专门用来访问数据库。当 AI 需要查询数据库中的信息时,它就可以通过这个 MCP 服务来进行查询,然后把查询结果返回给 AI。
通过 MCP,我们就打通了 AI 与外部世界的连接,让 AI 不再局限于它的训练数据,而是能够实时获取最新的信息和资源。
看到这里,你可能会想,怎么 MCP 和 RAG 这么像啊?它们不都是在给 AI 提供更多的上下文信息吗?
RAG 是一种技术手段,解决大模型的“幻觉”和“知识库过时”问题。它通过把用户的查询转化为向量,去向量数据库中检索相关的知识片段,然后把这些片段连同用户的提问一起塞给大模型,让大模型基于这些事实来回答。
而 MCP 则是一套标准化的协议,解决 AI 模型与外部数据源、工具之间“连接碎片化”的问题。
能力边界的不同:只读 vs 读写
RAG 通常是“只读”的:传统的 RAG 系统主要是从外部拉取数据输入给大模型。它本身并不具备“行动”能力(比如修改数据库、发邮件)。
MCP 是“读写兼备”的:MCP 不仅定义了如何读取资源(Resources),还定义了如何调用工具(Tools)。通过 MCP,AI 不仅能读取你的本地代码,还能通过调用暴露出的 Tool 直接在你的电脑上执行一段代码或提交一个 Git 记录。
总结来说,RAG 决定了 AI “如何利用知识”,而 MCP 决定了 AI “如何连接外部世界”。
6、 Agent(智能体)

Agent
大语言模型是大脑,只有大脑是远远不够的。我们还需要给它手脚。
AI 最终的目标是能够像人一样,不仅能理解问题,还能主动地去完成任务,解决问题。Agent 就是实现这个目标的一种方式。
Agent 是一个以大语言模型为“大脑”,具备感知环境、自主规划任务、记忆上下文,并能调用工具执行动作以完成特定目标的系统。
传统的 ChatGPT 对话是“你问一句,它答一句”(被动响应)。
而 Agent 具备自主性 (Autonomy)。当你给 Agent 下达一个复杂指令(例如:“帮我分析一下竞品的新标签页插件有哪些核心功能,并生成一份 Markdown 报告存到本地”),Agent 会自己拆解步骤:
- 思考与规划 (Planning):我需要先搜索网页,然后提取内容,最后写入文件。
- 记忆 (Memory):记住当前处于哪一步,以及之前搜索到的中间结果。
- 使用工具 (Tool Use / Action):调用搜索引擎工具查资料,调用文件读写工具保存文件。
7、 Agent、RAG、MCP 的区别与联系:职场比喻
要理清它们的关系,我们可以用一个“现代职场人工作”的比喻来串联:
Agent (智能体) = 员工本人
- 角色:打工人(大脑是 LLM)。
- 职责:理解老板(用户)的意图,拆解任务,决定先做什么后做什么,判断任务是否完成。
RAG (检索增强生成) = 员工的专属资料库/档案柜
- 角色:外挂知识库。
- 职责:当员工发现自己脑袋里(模型预训练知识)没有某个特定项目的细节时,去档案柜里精准检索出需要的文件,放在办公桌上供自己参考。
MCP (模型上下文协议) = 公司的标准化工作流/通信语言
- 角色:标准化接口协议。
- 职责:规定了员工如何合规地去拿档案柜里的资料(连接 RAG),规定了员工如何操作公司的打印机、财务系统(连接其他外部 Tools)。
Agent 的核心价值在于:它不仅能理解复杂的指令,还能自主地去完成任务,而不需要你一步步地指导它。
8、Claude Code
最后,Claude Code 是 Anthropic 公司推出的一款专为编程设计的 Agent。
它是 Agent 的一个具体实现案例。它不仅集成了强大的自主规划能力,还原生支持 MCP 协议和 Skills 扩展。它能读写文件、运行测试、修复 Bug,甚至根据你项目中的 SKILL.md 自动执行发布流程。它代表了目前 AI 在编程辅助领域的最高生产力。
总结
- Prompt / Context Engineering 是我们与 AI 交流的沟通质量。
- RAG 是 AI 扩充知识库的技术手段。
- MCP 是连接 AI 与外部世界的标准化物理接口。
- Skills 是将重复流程打包成的自动化指令集。
- Agent 是将上述能力整合,能自主思考并执行任务的终极形态。
- Claude Code 则是 Agent 在软件工程领域的硬核应用。
最后
对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?
答案只有一个:人工智能(尤其是大模型方向)
当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右。
再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。

对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。
如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!
下面是我整理的大模型学习资源,希望能帮到你。

👇👇扫码免费领取全部内容👇👇

最后
1、大模型学习路线

2、从0到进阶大模型学习视频教程
从入门到进阶这里都有,跟着老师学习事半功倍。

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

4、 AI大模型最新行业报告
2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5、面试试题/经验

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

6、大模型项目实战&配套源码

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
-
硬件选型
-
带你了解全球大模型
-
使用国产大模型服务
-
搭建 OpenAI 代理
-
热身:基于阿里云 PAI 部署 Stable Diffusion
-
在本地计算机运行大模型
-
大模型的私有化部署
-
基于 vLLM 部署大模型
-
案例:如何优雅地在阿里云私有部署开源大模型
-
部署一套开源 LLM 项目
-
内容安全
-
互联网信息服务算法备案
-
…
👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐

所有评论(0)