你是否曾经困惑:调用一个大模型 API 和「部署一个 Agent」到底有什么本质区别?MCP 和 Skill 都是「能力扩展」,为什么需要两套机制?A2A 又在哪个层次上解决了什么问题?

第一章 全景总览

这篇文章把七个核心概念放在同一张地图里。你可以把它理解为一个由内向外的分层结构:

•第 0 层 基础设施:LLM(大语言模型,Large Language Model)

•第 1 层 访问接口:OpenAI API、Claude API、Qwen API

•第 2 层 能力扩展:MCP(模型上下文协议)、Skill(技能)

•第 3 层 自主执行:Agent(智能体)

•第 4 层 协作网络:A2A(Agent 间通信协议)

从中心向外,每一层都依赖内层,同时向外层提供更强的自主性和协作能力。理解这个层次关系,是读懂本文的关键前提。

在这里插入图片描述

第 0 层(灰)是 LLM,展示了四个代表性模型及其核心特征。

第 1 层(蓝)是三大 API,标注了各自的关键差异点。

第 2 层分左右两块,左侧的 MCP(青绿)展示 Tools / Resources / Prompts 三类资源,右侧的 Skill(琥珀)展示能力封装结构,两者之间有「Skill 使用 MCP」的虚线标注。

第 3 层(紫)是 Agent,内部展示 Thought → Action → Observe 的 ReAct 循环,底部有回环箭头表达迭代特性。

第 4 层(珊瑚红)是 A2A 协作网络,双向箭头表达 Agent 间的横向通信。
在这里插入图片描述

第二章 LLM:一切的基础

▍概念与定义

大语言模型(Large Language Model,LLM)是基于 Transformer 架构、在海量文本语料上预训练的神经网络模型。它的核心能力是:给定一段文本上下文,预测下一个 token(词元)的概率分布。

这听起来很简单,却涌现出了理解、推理、代码生成、多语言翻译等复杂能力。这种「涌现性」(Emergent Ability)是 LLM 区别于早期 NLP 模型的核心特征。

▍核心原理

直觉解释:LLM 在预测「下一个词」时,需要理解整句话甚至整篇文章的语义,这迫使它学会了语言的深层结构。

严格定义:给定序列 x₁, x₂, …, xₙ,模型最大化联合概率 P(x₁,…,xₙ) = ∏P(xᵢ | x₁,…,xᵢ₋₁)。Transformer 的自注意力机制(Self-Attention)让每个 token 都能直接关注序列中任意位置的 token,突破了 RNN 的长距离依赖瓶颈。

▍典型代表

•GPT-4o(OpenAI):闭源,具备多模态(文本、图像、音频)能力

•Claude 3.7(Anthropic):闭源,强调安全对齐与长上下文(200K tokens)

•Qwen3(阿里云):开源与闭源双轨,中文能力突出,支持本地部署

•LLaMA 3(Meta):开源,广泛用于本地推理和微调

▍关键参数

参数量:目前主流大模型的参数量在 7B 到 1T 之间。参数量影响模型容量,但不直接等于推理质量。推理质量更多取决于数据质量和对齐(RLHF/DPO)训练。

上下文窗口(Context Window):模型单次能处理的 token 上限。GPT-4o 为 128K,Claude 3.7 为 200K,Qwen3 最高 1M。窗口越大,支持的对话轮次越多,但推理成本呈二次方增长。

注意:上下文窗口大小 ≠ 模型「记忆力」。超出窗口的历史会被截断,模型本身没有持久化记忆。

第三章 三大 API:OpenAI · Claude · Qwen

▍OpenAI API

【定义与接口格式】

OpenAI API 是访问 GPT 系列模型的 HTTP 接口。核心端点是 /v1/chat/completions,采用 ChatML(Chat Markup Language)格式,消息结构如下:

POST https://api.openai.com/v1/chat/completions
{
"model": "gpt-4o",          // 指定模型版本
"messages": [
{"role": "system", "content": "你是一名工程师"},  // 系统提示
{"role": "user",   "content": "解释 TCP 握手"}   // 用户输入
],
"temperature": 0.7,          // 随机性,0=确定性,1=高随机
"max_tokens": 1024           // 最大输出长度
}

返回结构中,choices[0].message.content 是模型的文本回复。finish_reason 字段区分正常停止(stop)和截断(length)。

【Function Calling(工具调用)】

OpenAI 在 2023 年引入 Function Calling,允许模型返回结构化的函数调用意图,而非自由文本。这是构建 Agent 的关键机制之一。流程为:请求中声明可用函数 → 模型返回函数名和参数 JSON → 调用方执行函数 → 把结果放回对话继续推理。

▍Claude API(Anthropic)

【定义与接口格式】

Claude API 提供对 Claude 系列模型的访问。核心端点是 /v1/messages,格式与 OpenAI 相似但有差异:system 字段独立于 messages 数组,而不是作为数组中的一条消息。

POST https://api.anthropic.com/v1/messages
{
"model": "claude-sonnet-4-6",   // 当前最新 Sonnet 版本
"max_tokens": 1024,
"system": "你是一名工程师",          // 系统提示独立字段
"messages": [
{"role": "user", "content": "解释 TCP 握手"}
]
}

Claude API 的工具调用格式与 OpenAI 类似,但使用 tools 字段而不是 functions。Claude 在长上下文和安全对齐方面投入更多,适合需要处理大量文档或对输出安全性要求高的场景。

【Claude 独有特性】

•200K token 上下文,支持整本书级别的文档分析

•Constitutional AI 对齐方法,拒绝有害请求的逻辑更透明

•支持 Artifacts(结构化输出组件),适合代码生成与文档生成

▍Qwen API(阿里云)

【定义与接口格式】

Qwen API 通过阿里云百炼平台(DashScope)提供服务。接口兼容 OpenAI 格式,可以直接使用 OpenAI SDK 并替换 base_url 和 api_key 接入。

from openai import OpenAI
client = OpenAI(
api_key="your-dashscope-key",
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1"  # 兼容层
)

Qwen3 同时发布了开源版本(7B / 14B / 32B / 72B / 235B-MoE),可本地部署,适合对数据隐私有严格要求的企业场景。

【三大 API 核心区别对比】

定价模型:三者均按 token 计费,输入/输出分开计价。Claude 的长上下文使用场景下成本可能更高。Qwen 在国内合规和低延迟方面有优势。

•语言能力:Qwen3 在中文评测上领先,Claude 在英文长文理解上领先,GPT-4o 在代码和多模态上领先

•开源生态:Qwen3 和 LLaMA 有开源版本,OpenAI 和 Claude 均为闭源

•合规性:Qwen 通过国内安全审查,适合政务和金融场景

三套 API 的认证方式均为 HTTP Header 传 Bearer Token,但 Anthropic 额外要求 anthropic-version 版本头。

第四章 Agent:从问答到自主执行

▍概念与定义

Agent(智能体)是一个能够感知环境、规划行动、调用工具并迭代执行任务的 AI 系统。它不是简单地「调用 LLM 一次」,而是通过多轮推理和工具使用,自主完成复杂任务。

工程师视角的准确定义:Agent = LLM + 工具集合 + 循环执行框架 + (可选)记忆模块。

▍核心原理:ReAct 循环

目前最广泛使用的 Agent 框架是 ReAct(Reasoning + Acting),其核心是一个思考-行动-观察的循环:

•Thought(思考):LLM 分析当前状态,决定下一步行动

•Action(行动):调用工具(搜索、代码执行、数据库查询等)

•Observation(观察):获取工具返回结果,放入上下文

•重复上述步骤,直到任务完成或达到最大步数

这个循环的终止条件是判断任务已完成,而不是固定步数。因此需要设置最大步数(如 20 步)作为保护机制,防止无限循环。

▍工程实现要点

系统提示(System Prompt)决定了 Agent 的行为边界。生产环境中,系统提示通常包含:可用工具列表及其描述、输出格式约束、安全规则(不得调用哪些 API)、以及任务终止条件。

工具注册格式遵循 JSON Schema。每个工具需要声明名称、描述、参数类型和必填字段。描述的质量直接影响模型是否选择正确工具。

常见错误:工具描述过于模糊(如「搜索工具」),导致模型在不需要时也调用它。描述应说明「什么场景用,什么场景不用」。

第五章 MCP:标准化工具接入协议

▍概念与定义

MCP(Model Context Protocol,模型上下文协议)是 Anthropic 于 2024 年 11 月发布的开放标准协议,用于规范 AI 模型与外部工具/数据源之间的通信方式。

在 MCP 出现之前,每个 Agent 框架(LangChain、AutoGPT 等)都有各自的工具接入方式,互不兼容。MCP 试图成为这个领域的「USB 接口」——一套标准,适配所有。

▍核心原理

MCP 采用 Client-Server 架构。MCP Server 封装工具或数据源,MCP Client(通常是 Agent 宿主)连接 Server 并代理模型的工具调用。

MCP 定义了三类资源:

•Tools(工具):模型可主动调用的函数,如「发送邮件」「执行 SQL 查询」

•Resources(资源):模型可读取的数据,如「文件系统」「数据库记录」

•Prompts(提示模板):预定义的提示片段,供用户或模型复用

通信格式基于 JSON-RPC 2.0,传输层支持 stdio(本地进程间通信)和 SSE(HTTP 流式事件,适合远程服务)。

▍工程格式示例

// MCP Server 注册工具(TypeScript SDK)
server.setRequestHandler(ListToolsRequestSchema, async () => ({
tools: [{
name: "query_database",        // 工具唯一名称
description: "执行只读 SQL 查询,返回 JSON 格式结果",
inputSchema: {                  // JSON Schema 定义参数
type: "object",
properties: {
sql: { type: "string", description: "SELECT 语句" }
},
required: ["sql"]
}
}]
}));

▍MCP 与直接工具调用的区别

直接工具调用(如 OpenAI Function Calling)是模型与工具的紧耦合:工具定义写在请求体里,换一个 Agent 框架就需要重写。MCP 是松耦合:工具封装在独立的 Server 里,任何支持 MCP 协议的 Client 都可以接入。

2024 年底,Cursor、Claude Desktop、Windsurf 等主流工具已支持 MCP。截至 2025 年初,已有超过 1000 个社区维护的 MCP Server。

第六章 Skill:Agent 的可复用能力单元

▍概念与定义

Skill(技能)是 Agent 框架中对「可复用能力模块」的抽象封装。它比单个工具调用更高层:一个 Skill 通常封装了完成某类子任务所需的提示词、工具组合和执行逻辑。

类比:如果 MCP 工具是「函数」,Skill 就是「类方法」——它包含状态管理、错误处理和特定领域的领域知识。

▍Skill 的典型结构

•名称与描述:供 Agent 调度层判断何时使用此 Skill

•输入/输出 Schema:明确参数类型,便于 Agent 编排

•执行逻辑:可以是单次 LLM 调用、工具链、或子 Agent

•上下文需求:声明需要哪些权限(如读取文件系统、访问网络)

▍Skill 与 MCP 的关系

两者不在同一层次,不存在替代关系。MCP 解决「工具如何接入」的标准化问题;Skill 解决「工具如何组合成可复用能力」的抽象问题。

实际架构中,一个 Skill 的实现往往依赖多个 MCP 工具。例如「代码审查 Skill」可能需要调用:代码文件读取(MCP Resource)+ 静态分析工具(MCP Tool)+ 生成报告(LLM 调用)三个组件。

Skill 是框架级概念,不同框架(AutoGen、CrewAI、LangGraph)对 Skill 的命名和实现方式有差异。阅读具体框架文档时注意概念对应关系。

第七章 A2A:Agent 间的通信协议

▍概念与定义

A2A(Agent-to-Agent Protocol,智能体间通信协议)是 Google 于 2025 年 4 月发布的开放标准,定义了不同 Agent 之间如何安全、互操作地通信与协作。

它解决了一个现实问题:当多个 Agent 由不同团队或不同供应商构建时,如何让它们之间传递任务、共享状态、协商能力,而不依赖某个特定的框架或平台。

▍核心原理

A2A 的核心机制围绕三个概念:

•Agent Card(能力名片):每个 Agent 通过 JSON 格式声明自己能做什么、接受什么输入、返回什么输出。类似服务发现中的 Service Registry。

•Task(任务):A2A 的基本交互单元。一个 Task 包含任务描述、输入数据、状态(pending / running / completed / failed)和输出结果。

•Message Stream(消息流):基于 SSE 的流式通信,允许 Agent 在任务执行过程中实时回传中间状态,而不必等到任务完全结束。

A2A 使用标准 HTTP/JSON 通信,不绑定任何编程语言或框架,这是它与 LangChain 等框架内置的 Agent 编排机制的本质区别。

▍A2A 与 MCP 的定位区别

这是最容易混淆的两对概念。一句话区分:MCP 是 Agent 与工具/数据源之间的协议(纵向),A2A 是 Agent 与 Agent 之间的协议(横向)。

•MCP:模型 → 工具(数据库、文件系统、API)

•A2A:Agent A → Agent B(跨团队、跨组织的 Agent 调用)

两者可以在同一系统中并存:Agent A 通过 MCP 调用本地工具,同时通过 A2A 把子任务委派给 Agent B。

A2A 发布时间较新(2025 年),生产级实现仍在演进中。评估是否采用时,需关注所用框架的支持状态。

第八章 概念关系与架构全图

▍层次架构

从基础设施到协作网络,完整的分层视图如下:

▍数据流示例:一个 Agent 处理「分析竞品报告」任务

用户发起任务 → Agent 接收(第 3 层)→ Agent 调用「文档读取 Skill」→ Skill 通过 MCP 读取 PDF 文件(第 2 层)→ Agent 调用「总结 Skill」→ Skill 调用 Claude API(第 1 层)→ Claude 模型推理(第 0 层)→ 结果返回。如果报告分析需要市场数据,Agent 可通过 A2A 委派给「数据分析 Agent」(第 4 层)。

第九章 总结

▍一句话核心结论

LLM 是能力来源,API 是访问接口,MCP 是工具标准,Skill 是能力封装,Agent 是执行主体,A2A 是协作协议——七个概念各司其职,共同构成现代 AI 应用的技术栈。

▍局限性与注意事项

•MCP 和 A2A 均为 2024–2025 年新发布规范,社区工具和最佳实践仍在快速演进

•多 Agent 系统的可观测性(日志、追踪、调试)是当前工程落地的最大挑战

•LLM 的不确定性(幻觉、随机性)在 Agent 多跳推理链中会被放大,需要严格的输入/输出校验

•成本控制:Agent 循环中每一步都消耗 token,生产环境须做 token budget 管理

▍延伸学习方向

•LLM 推理优化:量化(Quantization)、KV Cache、Speculative Decoding

•Agent 可靠性:工具调用失败重试策略、幂等设计

•多 Agent 编排框架:LangGraph(有向图编排)、AutoGen(多 Agent 对话)、CrewAI(角色驱动)

•安全与权限:Agent 的最小权限原则、工具调用审计

▍思考题

如果你的 Agent 需要同时接入 10 个外部系统(数据库、Slack、GitHub、日历…),你会优先采用 MCP 统一接入,还是为每个系统写独立的 Function Calling 工具?两种方案在维护成本、灵活性和性能上的 trade-off 各是什么?

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
在这里插入图片描述

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
在这里插入图片描述

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

图片

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01 教学内容

在这里插入图片描述

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

image.png

vx扫描下方二维码即可
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03 入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:
图片

04 视频和书籍PDF合集

图片

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

图片

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
图片

05 行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!
图片

06 90+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)图片
在这里插入图片描述

07 deepseek部署包+技巧大全

在这里插入图片描述

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
# 普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
在这里插入图片描述

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
在这里插入图片描述

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

图片

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01 教学内容

在这里插入图片描述

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

image.png

vx扫描下方二维码即可
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03 入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:
图片

04 视频和书籍PDF合集

图片

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

图片

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
图片

05 行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!
图片

06 90+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)图片
在这里插入图片描述

07 deepseek部署包+技巧大全

在这里插入图片描述

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述
【附赠一节免费的直播讲座,技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等,欢迎大家~】
在这里插入图片描述

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐