本文通过实际案例,系统地解释了Prompt、Context Engineering、RAG、Agent、Skills、MCP和Claude Code等AI领域核心概念的联系与区别。内容涵盖了从基础的Prompt Engineering到复杂的Context Engineering,以及RAG如何增强模型知识库,MCP如何作为AI与外部世界的连接标准,Skills如何实现自动化流程,Agent如何自主完成任务,并最终以Claude Code为例展示了Agent在编程领域的应用。对于想要了解大模型基本原理和应用的程序员小白来说,本文提供了清晰易懂的解释和实用的指导。

1、 Prompt 与 Prompt Engineering

我们平时与 AI 交互时输入的文本就是 Prompt(提示词)。它是我们向 AI 提出的问题或请求,是 AI 生成回答的基础。

如果直接输入简单的 Prompt:

帮我开发一款新标签页浏览器插件。

这种简单的描述往往会导致 AI 生成的回答不够准确或过于笼统,无法直接投入使用。

于是产生了 Prompt Engineering(提示词工程)的概念。它是指通过设计、优化和结构化 Prompt,来引导 AI 生成更准确、相关和有用的回答。

优化后的案例:

你是一名资深 Chrome 插件开发工程师。请帮我开发一个 Chrome New Tab 插件,要求:1. 替换浏览器新标签页;2. 显示当前时间;3. 支持 Todo List;4. 支持用户上传背景图片;5. 使用 localStorage 保存数据;6. UI 简洁现代;7. 使用 HTML + CSS + JavaScript 实现。

通过明确角色定位和具体功能点,AI 能更清楚地理解需求,生成更符合预期的代码。

2、Context Engineering(上下文工程)

上下文工程 vs 提示词工程

虽然 Prompt Engineering 优化了指令,但在复杂任务中,信息依然显得单薄。Context Engineering(上下文工程)更进一步,它侧重于提供极其详尽的背景信息、约束条件和参考资料,以消除 AI 的理解歧义。

深度 Context 示例:

你是一名资深 Chrome 插件开发工程师,精通 Manifest V3。请帮我开发一个 Chrome New Tab 插件,具体要求如下:1. 替换浏览器新标签页。2. 显示当前时间(格式:YYYY-MM-DD HH:mm:ss,每秒更新)。3. 支持 Todo List(增删改查,使用 localStorage 持久化,默认展示三个示例条目:“买牛奶”、“写周报”、“健身”)。4. 支持用户上传背景图片(使用 FileReader 读取并存储为 Base64 到 localStorage,图片需覆盖全屏,支持暗色遮罩层以提高文字可读性)。5. UI 简洁现代:时间居中大号显示;Todo List 置于右下角,半透明毛玻璃卡片;底部有一个上传按钮。6. 使用纯 HTML/CSS/JavaScript 实现,不使用任何外部框架或库。7. 必须符合 Manifest V3 规范,提供完整的 manifest.json、newtab.html、styles.css、script.js,并注明图标尺寸要求。8. 项目结构需清晰,所有文件放在一个文件夹中,直接可用。附加参考:- 官方文档中关于 newtab 替换的权限声明为:"chrome_url_overrides": {"newtab": "newtab.html"}- localStorage 存储示例:{ todos: ["买牛奶", "写周报"] }- 背景图片上传后应保持 aspect ratio 并 cover 整个页面。- 时间区域采用 24 小时制。

从上面的例子可以看出,通过提供更多的上下文信息,AI 能够更准确地理解我们的需求,从而不会生成一些不相关或错误的回答。

简单来说,其实 Prompt Engineering 是优化过 Prompt,而 Context Engineering 则是提供更多的背景信息来帮助 AI 理解问题。

Context Engineering 本质还是 Prompt Engineering,只不过它更侧重于提供上下文信息。让我们在设计 Prompt 时,不仅要关注问题本身,还要考虑提供足够的背景信息来帮助 AI 更好地理解和回答问题。

3、RAG(Retrieval-Augmented Generation,检索增强生成)

RAG

AI 的知识库存在截止日期。如果问 AI 一个发生在训练数据之后的事情,它可能会“一本正经地胡说八道”。

假设,AI 的知识截止日期是 2026 年 2 月,那么在这之后发生的事件,或者是一些比较新的技术,AI 就可能不知道了。

比如,如果我问 AI:

给我推荐 2026 年 3 月最新的技术文章。

如果只靠它自己的记忆,他可能答不上来,或者只能瞎猜。

这时候,你给了他一个超级能力:在回答问题之前,可以用搜索引擎去检索相关的信息,然后再基于这些信息来生成回答。

它的核心流程是:

  1. 检索:根据你的问题,从一个“知识库”(比如文档、数据库、网页)里找出最相关的几条信息。
  2. 增强:把这些信息和你原来的问题拼在一起,形成一个“增强版提示词”。
  3. 生成:把增强后的提示词交给大模型,让它生成最终答案。

这样做的好处是:

  • 知识新鲜:模型可以获取最新信息,不依赖过时的训练数据。
  • 答案可信:生成的内容有据可查,减少胡说八道。
  • 个性化:知识库可以包含用户个人数据(比如浏览历史、笔记),实现定制化回答。

这个“先查资料,再回答问题”的过程,就是 RAG(Retrieval-Augmented Generation,检索增强生成)。

通过这种方式,AI 就能够提供更准确、更相关的回答,而不是仅仅依赖于它的训练数据。

看到这里,你可能会想,这不就是在给 AI 提供更多的上下文信息吗?为什么还要单独提一个 RAG 的概念呢?

RAG 其实是实现“上下文工程”的一种关键技术。上下文工程的核心是“如何给模型填充正确的信息”,而 RAG 就是那个“自动检索正确信息”的引擎。有了 RAG,上下文就可以动态变化,而不需要手动写死。

所以,RAG 是一种技术手段,而上下文工程是一个更广泛的概念。上下文工程可以通过多种方式来实现,而 RAG 是其中非常重要的一种方式。

4、Agent Skills(技能)

Agent Skills Context Window

一个多月前,我写了一篇文章,介绍了 Skills 的概念。《Agent Skills 到底是什么,从使用到原理,以浅显易懂的方式讲清 rules 、skills 、mcp 的区别》。这里我就不再赘述 Skills 的定义了,直接通过一个例子来说明它的作用。

在开发新标签页插件每次发布新版本时,我们可能会有一些固定的步骤,比如:修改 manifest.json 里的版本号、压缩所有文件打成 zip 包、打 Git Tag、生成 Release Note。

如果没有 Skills,我们每次都要手动去做这些步骤,既麻烦又容易出错。

核心说明书:SKILL.md

这是技能的灵魂。头部是 YAML 格式的元数据(让 AI 知道什么时候该用它),正文是具体的执行指令。

---name: publish-extensiondescription: 自动执行Chrome插件的新版本发布流程。包括更新manifest.json版本号、打包zip压缩包以及提交Git。当用户要求“发布插件”、“打个新包”或“发个新版本”时触发。---# Chrome 插件发布流程 SOP## Instructions (执行指令)当你需要发布 Chrome 插件时,请严格按照以下步骤执行:1. 询问用户本次发布的版本更新类型(patch/minor/major)以及一句话的更新日志。2. 使用 bash 运行本目录下的 `publish.py` 脚本,并将用户提供的参数传给脚本。   运行命令示例:`python publish.py --type minor --message "新增Todo List功能"`3. 脚本执行完毕后,读取脚本的输出结果,并用简短的话告诉用户发布已完成,以及生成的压缩包名称。## 注意事项- 永远不要尝试自己去手动修改 manifest.json,必须调用 `publish.py` 来保证流程的稳定性。

限于篇幅,我就不贴 publish.py 的代码了,核心就是根据用户输入的版本更新类型和更新日志,自动修改 manifest.json 里的版本号,打包成 zip 包,并提交 Git。

但有了 Skills,你可以直接写一个名为 publish_extension(发布插件)的技能。这个技能内部直接封装了上述所有繁琐的节点。

下次代码写完,你只需要对 AI 说一句:“帮我发个新版本。” AI 就会自动调取 publish_extension 这个技能,帮你完成所有发布插件的步骤。

Skills 的核心价值在于:它把那些重复性、流程化的东西固定下来,形成一套 AI 专属的 SOP(标准作业程序)。这样一来,不仅提高了效率,还减少了出错的可能性。

5、 MCP(Model Context Protocol,模型上下文协议)

MCP

你可以把 MCP 形象地理解为 AI 界的“Type-C 万能接口标准”。正如 USB-C 为各种电子设备提供了标准化的物理连接方式一样,MCP 为 AI 应用(如 Claude、ChatGPT 等)连接外部世界提供了一套标准化的通信规范。

简单来说,AI 只知道预训练的数据,它无法感知外部的数据源。比如,如果你想让 AI 访问互联网、数据库是做不到的。

你可以会说,不对啊!为什么 ChatGPT 、Claude 等这些大模型都能访问互联网搜索信息呢?

其实,我们平时在 web 端使用的 ChatGPT、Claude 等大模型,并不是直接在模型上进行交互的,而是基于大模型开发的应用。

有了 MCP 这个标准接口,我们就可以基于它来构建各种各样的 MCP 服务,让 AI 能够通过这个 MCP 服务访问外部的数据源、工具等。

比如,我们可以开发一个 MCP 服务,专门用来访问互联网搜索引擎。当 AI 需要获取最新的信息时,它就可以通过这个 MCP 服务来进行搜索,然后把搜索结果返回给 AI。

或者,我们可以开发一个 MCP 服务,专门用来访问数据库。当 AI 需要查询数据库中的信息时,它就可以通过这个 MCP 服务来进行查询,然后把查询结果返回给 AI。

通过 MCP,我们就打通了 AI 与外部世界的连接,让 AI 不再局限于它的训练数据,而是能够实时获取最新的信息和资源。

看到这里,你可能会想,怎么 MCP 和 RAG 这么像啊?它们不都是在给 AI 提供更多的上下文信息吗?

RAG 是一种技术手段,解决大模型的“幻觉”和“知识库过时”问题。它通过把用户的查询转化为向量,去向量数据库中检索相关的知识片段,然后把这些片段连同用户的提问一起塞给大模型,让大模型基于这些事实来回答。

而 MCP 则是一套标准化的协议,解决 AI 模型与外部数据源、工具之间“连接碎片化”的问题。

能力边界的不同:只读 vs 读写

RAG 通常是“只读”的:传统的 RAG 系统主要是从外部拉取数据输入给大模型。它本身并不具备“行动”能力(比如修改数据库、发邮件)。

MCP 是“读写兼备”的:MCP 不仅定义了如何读取资源(Resources),还定义了如何调用工具(Tools)。通过 MCP,AI 不仅能读取你的本地代码,还能通过调用暴露出的 Tool 直接在你的电脑上执行一段代码或提交一个 Git 记录。

总结来说,RAG 决定了 AI “如何利用知识”,而 MCP 决定了 AI “如何连接外部世界”。

6、Agent(智能体)

Agent

大语言模型是大脑,只有大脑是远远不够的。我们还需要给它手脚。

AI 最终的目标是能够像人一样,不仅能理解问题,还能主动地去完成任务,解决问题。Agent 就是实现这个目标的一种方式。

Agent 是一个以大语言模型为“大脑”,具备感知环境、自主规划任务、记忆上下文,并能调用工具执行动作以完成特定目标的系统。

传统的 ChatGPT 对话是“你问一句,它答一句”(被动响应)。

而 Agent 具备自主性 (Autonomy)。当你给 Agent 下达一个复杂指令(例如:“帮我分析一下竞品的新标签页插件有哪些核心功能,并生成一份 Markdown 报告存到本地”),Agent 会自己拆解步骤:

  1. 思考与规划 (Planning):我需要先搜索网页,然后提取内容,最后写入文件。
  2. 记忆 (Memory):记住当前处于哪一步,以及之前搜索到的中间结果。
  3. 使用工具 (Tool Use / Action):调用搜索引擎工具查资料,调用文件读写工具保存文件。

7、Agent、RAG、MCP 的区别与联系:职场比喻

要理清它们的关系,我们可以用一个“现代职场人工作”的比喻来串联:

Agent (智能体) = 员工本人

  • 角色:打工人(大脑是 LLM)。
  • 职责:理解老板(用户)的意图,拆解任务,决定先做什么后做什么,判断任务是否完成。

RAG (检索增强生成) = 员工的专属资料库/档案柜

  • 角色:外挂知识库。
  • 职责:当员工发现自己脑袋里(模型预训练知识)没有某个特定项目的细节时,去档案柜里精准检索出需要的文件,放在办公桌上供自己参考。

MCP (模型上下文协议) = 公司的标准化工作流/通信语言

  • 角色:标准化接口协议。
  • 职责:规定了员工如何合规地去拿档案柜里的资料(连接 RAG),规定了员工如何操作公司的打印机、财务系统(连接其他外部 Tools)。

Agent 的核心价值在于:它不仅能理解复杂的指令,还能自主地去完成任务,而不需要你一步步地指导它。

8、 Claude Code

最后,Claude Code 是 Anthropic 公司推出的一款专为编程设计的 Agent。

它是 Agent 的一个具体实现案例。它不仅集成了强大的自主规划能力,还原生支持 MCP 协议和 Skills 扩展。它能读写文件、运行测试、修复 Bug,甚至根据你项目中的 SKILL.md 自动执行发布流程。它代表了目前 AI 在编程辅助领域的最高生产力。

总结

  • Prompt / Context Engineering 是我们与 AI 交流的沟通质量。
  • RAG 是 AI 扩充知识库的技术手段。
  • MCP 是连接 AI 与外部世界的标准化物理接口。
  • Skills 是将重复流程打包成的自动化指令集。
  • Agent 是将上述能力整合,能自主思考并执行任务的终极形态。
  • Claude Code 则是 Agent 在软件工程领域的硬核应用。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐