【强烈推荐】掌握MCP协议:大模型Agent开发入门,小白也能快速上手
MCP不只是协议,更是生态。它让Agent开发从“高端黑科技”变成“人人可上手”。我从零建了个天气Agent,花了不到一小时,就感受到协作效率的提升。未来,随着更多服务器开源,想象空间巨大。如果你也感兴趣,赶紧试试吧!有问题欢迎评论交流,一起探索AI世界。只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!在当前这个人工智能高速发展的时代,AI
最近在折腾大模型Agent开发的时候,发现了一个超级实用的协议——MCP(Model Context Protocol)。它是由Anthropic公司去年11月推出的,本来没啥动静,但今年Agent热潮一起来,它就火了。尤其是Cursor在2月份宣布支持MCP后,直接把这个协议推到了开发者眼前。今天我就来聊聊MCP的来龙去脉,以及怎么用它快速搭建客户端和服务器。相信看完这篇,你也能轻松上手,开发出自己的智能体Agent。
一、MCP是什么?为什么它能改变Agent开发游戏规则
先简单说说MCP的背景。MCP全称Model Context Protocol,翻译成模型上下文协议。它本质上是一种规范,专门解决大模型调用外部工具的痛点。我们知道,大模型要想从聊天机器人进化成真正的Agent,必须能调用外部工具,比如查天气、爬网页、操作数据库。但大模型天生没法直接和外部世界互动,所以就需要一个“中介”——Function Calling。
Function Calling这个概念从诞生起就很受欢迎,但问题也明显:写函数代码太费劲,一个简单工具可能要上百行代码,还得配JSON Schema描述函数接口,再加上精心调提示词,确保大模型能准确调用。开发门槛高,重复劳动多。
MCP的出现就像秦始皇统一“书同文、车同轨”一样,它定义了统一的规范:大模型环境叫MCP Client(客户端),工具运行环境叫MCP Server(服务器)。两者之间用固定提示词模板通信。这样一来,大家就不用每次从零写工具了。GitHub上现在已经有上千个开源MCP服务器,从SQL查询到网页爬取、命令行操作,再到数据分析,应有尽有。你只要装个库,几行代码就能接入这些工具。
MCP的最大亮点是生态:Anthropic提供了Python、TypeScript、Java等多语言SDK,开发服务器超级简单。客户端不仅支持Claude模型,还兼容任意本地或在线大模型,甚至像Cursor这样的IDE也能直接用。想象一下,在Cursor里一键连接海量工具,Agent开发速度起飞!
二、搭建MCP客户端:从零到会聊天,只需几步
MCP开发的第一步是建客户端。我们用uv工具管理环境——uv是Rust写的Python依赖管理器,比pip快多了,支持虚拟环境,还兼容requirements.txt。安装uv超级简单:用pip install uv,或者curl -LsSf https://astral.sh/uv/install.sh | sh。
uv的基本用法
- 安装依赖:uv pip install requests
- 创建虚拟环境:uv venv myenv
- 激活:source myenv/bin/activate(Linux/macOS)
- 运行项目:uv run python script.py
现在,创建一个MCP客户端项目:
uv init mcp-client
cd mcp-client
uv venv
source .venv/bin/activate
uv add mcp
然后新建client.py,写一个极简客户端代码(我贴了简化版,实际开发可以复制全文):
import asyncio
from mcp import ClientSession
from contextlib import AsyncExitStack
class MCPClient:
# 初始化、连接模拟服务器、聊天循环、清理资源等函数...
async def main():
client = MCPClient()
try:
await client.connect_to_mock_server()
await client.chat_loop()
finally:
await client.cleanup()
if name == "main":
asyncio.run(main())
运行uv run client.py,就能看到一个CLI界面:输入问题,它会模拟回复(先回显你的输入)。代码结构清晰:__init__初始化,chat_loop处理交互,cleanup释放资源。Jupyter里也能跑,加nest_asyncio.apply()解决事件循环冲突。
三、接入在线/本地模型,让客户端“活”起来
@极简版太基础了?加OpenAI或DeepSeek吧。先uv add openai python-dotenv,创建.env文件放API Key(国内用反代地址直连OpenAI)。DeepSeek类似,BASE_URL=https://api.deepseek.com。
修改client.py,用OpenAI客户端处理查询:
四、加载dotenv,读取API Key
self.client = OpenAI(api_key=self.openai_api_key, base_url=self.base_url)
async def process_query(self, query: str) -> str:
messages = [{"role": "system", "content": "你是一个智能助手..."}, {"role": "user", "content": query}]
response = await ... # 调用API
return response.choices[0].message.content
运行后,就能和大模型聊天了!本地模型呢?用ollama或vLLM调度框架,它们兼容OpenAI API风格,只改.env就行。比如ollama:BASE_URL=http://localhost:11434/v1/,MODEL=qwq。vLLM类似,启动服务后改BASE_URL=http://localhost:8000/v1。
我试了QwQ-32B模型,响应速度飞快,感觉本地Agent开发门槛真低了。
五、MCP服务器实战:建个天气查询工具,体验Function Calling
客户端ready了,现在建服务器。MCP服务器提供Resources(资源)、Tools(工具)、Prompts(提示词)三种能力。我们用stdio(标准输入输出)模式建一个天气查询服务器,用OpenWeather API。
先uv add mcp httpx,获取API Key(免费注册)。新建server.py:
import json
import httpx
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("WeatherServer")
async def fetch_weather(city: str) -> dict:
# httpx请求OpenWeather API...
def format_weather(data: dict) -> str:
# 格式化输出温度、湿度等...
@mcp.tool()
async def query_weather(city: str) -> str:
data = await fetch_weather(city)
return format_weather(data)
if name == "main":
mcp.run(transport='stdio')
这个服务器注册了query_weather工具,描述清楚(城市英文名)。stdio模式下,服务器作为子进程跑。
六、连接客户端测试
修改client.py支持stdio连接和Function Calling:
async def connect_to_server(self, server_script_path: str):
# 启动stdio服务器,list_tools列出工具...
async def process_query(self, query: str) -> str:
# list_tools获取可用工具,发给OpenAI
# 如果finish_reason=="tool_calls",call_tool执行...
运行uv run client.py server.py,问“北京今天天气如何?”大模型会自动调用工具,返回格式化天气:温度XX°C,湿度XX%… 超方便!
MCP通讯机制:本地用stdio,远程用HTTP+SSE(服务器推送事件)。JSON-RPC 2.0格式传输。Anthropic正考虑升级成流式HTTP,解决SSE单向限制。
调试用Inspector:装Node.js,npx -y @modelcontextprotocol/inspector uv run server.py,在浏览器http://127.0.0.1:5173/查看工具运行。
七、总结
MCP不只是协议,更是生态。它让Agent开发从“高端黑科技”变成“人人可上手”。我从零建了个天气Agent,花了不到一小时,就感受到协作效率的提升。未来,随着更多服务器开源,想象空间巨大。如果你也感兴趣,赶紧试试吧!有问题欢迎评论交流,一起探索AI世界。
普通人如何抓住AI大模型的风口?
领取方式在文末
为什么要学习大模型?
目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。
目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!
最后
只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!
在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
大模型全套学习资料展示
自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。
希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!
01 教学内容
-
从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!
-
大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
02适学人群
应届毕业生: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
vx扫描下方二维码即可
本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!
03 入门到进阶学习路线图
大模型学习路线图,整体分为5个大的阶段:
04 视频和书籍PDF合集
从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
05 行业报告+白皮书合集
收集70+报告与白皮书,了解行业最新动态!
06 90+份面试题/经验
AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)
07 deepseek部署包+技巧大全
由于篇幅有限
只展示部分资料
并且还在持续更新中…
真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发
更多推荐
所有评论(0)