深入解析MCP:一篇文章让你彻底理解MCP的概念及其运作过程!
MCP是由Anthropic公司推出的AI大模型与外部世界交互的通用协议,采用客户端+服务器架构,包括MCP主机、客户端和服务器三部分,支持Stdio、HTTP with SSE和Streamable HTTP三种通信方式。MCP能扩展AI大模型的能力边界,实现智能分析决策、知识中枢、客服机器人、BPM、API集成、自动化测试和编程助手等七大应用场景,帮助企业数字化转型和提升研发效率。
简介
MCP是由Anthropic公司推出的AI大模型与外部世界交互的通用协议,采用客户端+服务器架构,包括MCP主机、客户端和服务器三部分,支持Stdio、HTTP with SSE和Streamable HTTP三种通信方式。MCP能扩展AI大模型的能力边界,实现智能分析决策、知识中枢、客服机器人、BPM、API集成、自动化测试和编程助手等七大应用场景,帮助企业数字化转型和提升研发效率。
对于很多同学来说,MCP是一个较为新兴的概念,我们先来介绍一下。
MCP是一个由Anbhropic公司推出的、为AI大模型(LLM)建立了与外部世界交互的通用协议。
这种标准化的连接方式使LLM能够更加灵活地接入各类数据源和工具,从而实现无缝的访问和信息处理,大大扩展了LLM的能力边界。
举例来说,MCP之于AI大模型就像是电子设备之于USB-C接口。
一、MCP技术架构
MCP是标准的客户端 + 服务器端架构,包括三个组成部分。
1、MCP主机(Host)
使用MCP连接各种资源的AI应用程序,包括:AI助手(Claude Desktop)、开发环境(Cursor、Cline),以及专门的AI工具等。
2、MCP客户端(Client)
其位于宿主机内部,用来与MCP服务器进行通信,发送请求并处理响应。
3、MCP服务器(Server)
为LLM提供服务,可以访问本地或远程,包括文件系统、数据库和API。
其工作流程为:
1、MCP主机上的应用程序,通过MCP客户端与一个或多个MCP服务器进行连接。
2、用户与MCP主机上的应用程序进行交互,向其提出自己的诉求,如:查询天气或路线导航等。
3、MCP客户端通过LLM进行推理,向满足诉求的MCP服务器发送请求。
4、MCP服务器接收并处理请求,请求访问相关资源(数据库、文件系统、API),并将结果返回给MCP客户端。
5、最终,MCP客户端将结果信息生成响应,并向用户进行呈现。
MCP客户端和MCP服务器有三种通信方式,分别是:Stdio、HTTP with SSE和Streamable HTTP。
1、Stdio(标准输入输出)
适用于MCP客户端和MCP服务器运行在同一台服务器上的本地集成场景,不支持跨网络通信,适用于访问本地文件、本地数据库,或运行本地脚本。
在该方式中,MCP客户端会将MCP服务器作为子进程启动。
2、HTTP with SSE
在这种通信方式下,MCP客户端与MCP服务器间的通信分为两条独立通道。
HTTP请求/响应通道:用于MCP客户端向MCP服务器发送工具调用请求。
SSE单向推送通道:MCP服务器通过专门的/sse端点推送执行结果和进度更新。
3、Streamable HTTP
2025年3月引入的新一代通信方式,用来替换之前的HTTP with SSE方式,解决当并发工具调用量增长时,服务器内存和线程资源被快速耗尽的问题。
该种方式的核心突破在于端点统一化设计——彻底移除了专用的SSE端点/sse
,所有客户端-服务器通信均通过单一端点(通常为/mcp
)完成。
二、MCP的应用场景
任何一项技术的诞生,其核心价值在于能够帮助我们解决哪些问题,接下来我们就来盘点一下,MCP助力企业数字化转型和提升研发效率的六大场景。
1、智能分析决策
以前,公司的运营人员想在数据平台上增加几个销售数据指标,需要给产品经理提需求。
产品经理将需求整理成文档后,会拉上程序员进行需求评审并排期开发,程序员开发完成并经过测试人员验证后,才走到需求发布上线的环节。
也就是说,运营人员从提需求那天起,到系统上增加上自己想要看到的数据,短则三五天,长则十天半个月。
而有了LLM + MCP的加持,运营人员只需要用自然语直接言询问想要的数据指标,LLM即可通过MCP连接上数据库,自动分析并生成一份可视化数据报表。
2、智能知识中枢
传统的企业知识库只能依赖于基本的关键字匹配,难以理解用户的真实意图,且无法处理复杂问题。
而有了LLM + MCP的加持,新一代智能知识中枢将重塑企业知识管理的方式,用户只需要用自然语言提问,即可获得准确全面的答案,充分释放数据价值。
3、智能客服机器人
基于MCP实现智能客服机器人,可直接接入企业ERP、CRM等核心系统,具备深度理解用户意图和提供精准服务的能力。
其服务边界不仅限于 “查订单、问物流” 等标准化问题,更能深度参与“发起退款、修改收货地址”等核心业务流程,成为连接用户与企业服务的 “智能枢纽”,在保持用户满意度的同时,可大幅降低人工客服成本。
4、智能BPM
MCP通过LLM与工具、数据源的交互,为流程自动化提供了高效、灵活的解决方案,形成 “指令 - 调度 - 执行” 的闭环。
用户指令层 ——> MCP调度层 ——> 流程执行层
用户指令层:接收自然语言指令,如“自动生成上月销售报表,并将文件发送给财务,以及进行短信提醒”。
MCP 调度层:解析指令、拆解流程步骤、生成MCP工具调用指令。
流程执行层:调用业务系统 API、数据库、办公软件等完成具体操作。
5、API集成
在MCP中进行API集成,核心是通过标准化协议实现LLM与外部API的安全、高效交互,让模型具备调用工具的能力。
研发人员不再需要深入研究每个API的文档和细节,而是可以用自然语言描述业务需求,通过AI自动处理底层通信细节,这样可以大幅提升研发效率。
以API全面兼容MCP协议的百度地图为例:
6、自动化测试
MCP通过标准化协议将LLM的 “需求理解能力” ,与测试工具和业务系统进行对接,以此实现 “测试需求→用例生成→用例执行→报告输出” 的全流程自动化,大幅降低测试门槛并提升效率。
7、编程助手
谷歌CEO桑达尔·皮查伊称,目前谷歌的代码有1/4是AI生成的。
通过MCP连接代码库、文档和开发工具,研发人员可构建智能编程助手,LLM不仅能分析代码逻辑、提供代码建议、查找相关文档,还能理解系统的上下文,生成符合系统风格和需求的代码。
在MCP的支持下,研发人员的集成开环境将不再是简单的代码编辑器、调试器,而将是一个更加强大的智能开发平台。
三、结语如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)