登录社区云,与社区用户共同成长
邀请您加入社区
MCP(Model Context Protocol,模型上下文协议)是由 Anthropic 推出的,是 AI 模型 / Agent 与外部工具、数据源交互的。MCP最初由,主要用于claude模型;2025 年 3 月,,随后 Google、微软、百度等主流厂商跟进,MCP 从 Anthropic 专属协议升级为。2025 年 12 月 10 日,Anthropic 将 MCP 捐赠给,实现。
OpenAI 在 2025 年 10 月上线了 GPT Apps,让开发者把交互式 UI 直接嵌进 ChatGPT 对话窗口,Booking.com、Canva、Spotify 是首批合作伙伴,目前 App Directory 已对所有开发者开放提交。本文介绍 GPT Apps 的底层架构(双层 iframe 隔离、window.openai 通信 API、状态持久化),以及如何用 LeanMCP
本文探讨了领码SPARK平台与Agent Skills MCP协议的融合,推动AI从静态配置生成器进化为具备持续学习能力的智能体。通过构建"智能体技能矩阵",MCP为AI提供了标准化、安全可控的操作接口,使其能动态感知运行时状态、实时优化性能并自动治理权限。这一融合催生了"编译时知识库+运行时引擎+智能体技能层"的新架构,将零代码边界从界面构建扩展到应用全生
MCPApps是Anthropic和OpenAI联合推出的ModelContextProtocol扩展,允许MCPServer直接在对话窗口渲染交互式UI。该技术解决了纯文字交互的局限性,支持在Claude、ChatGPT等平台内嵌表单、仪表盘等复杂界面。通过沙箱iframe实现安全交互,数据通过JSON-RPC回传。LeanMCP作为配套工具,提供了认证、日志等生产环境所需功能。与GPTApps
Chrome DevTools MCP 是 Google 官方开发的 MCP 服务器,它通过 Chrome DevTools Protocol (CDP) 暴露浏览器功能给 MCP 客户端。WinClaw 通过内置的 MCP bridge 插件,可以无缝连接到这个服务器,实现对 Chrome 的完全控制。WinClaw 集成 Chrome DevTools MCP 后,将 AI 助手的能力扩展到了
摘要:Anthropic推出的MCP协议解决了大模型与外部数据连接的"数据孤岛"问题,被称为AI界的"USB-C接口"。该协议通过标准化架构(资源/工具/提示词三大要素)实现模型与数据源的即插即用,相比传统API集成具有显著优势。尽管存在安全风险(如提示词注入),但结合Cursor、Claude等案例显示,MCP正在推动AI从聊天机器人向自主智能体进化,成为
模型上下文协议(MCP)是连接AI模型与外部系统的标准化方案,解决了传统集成方式中的工具不可复用、开发复杂等问题。MCP采用C/S架构,包含Host、Client、Server和传输层四个核心组件,通过标准化通信协议实现工具和资源的即插即用。相比传统API集成,MCP简化了开发流程,使不同模型能共享工具功能,同时确保安全性。文章还通过Python示例展示了MCP服务器的实现方法,说明该协议如何突破
摘要:WinClaw在Windows平台的工具管理暴露出严重缺陷——当用户请求"写博客"时,AI竟调用了天气查询、图片生成等无关工具,并陷入无限循环。问题根源在于全量Schema传递机制:每次请求向模型传递所有60个工具的完整定义,消耗15%上下文窗口并导致选择困难。数据显示28%的工具调用与任务无关,同时引发意图识别浪费、错误恢复困难等连锁问题。与macOS版OpenClaw
嗨,我是小华同学,专注解锁高效工作与前沿AI工具!每日精选开源技术、实战技巧,助你省时50%、领先他人一步。👉免费订阅,与10万+技术人共享升级秘籍!!!!今天把我的私货都给大家啦,哈哈哈" 还记得以前让 AI 写代码,它总是"闭着眼睛瞎猜"——API 过时了、路径报错了、连你的数据库长啥样都不知道... 今天,我不装了!直接把压箱底的 5 个宝藏 MCP 服务 全掏出来——从浏览器调试、文档检
摘要:AI Agent是2026年AI生态的核心,具备自主决策、规划执行等类人能力。其架构包含感知、规划、行动、记忆和反思五大模块,形成闭环系统。关键技术包括A2A(Agent间协作协议)、MCP(标准化工具调用协议)和模块化Skills(专业能力包)。应用场景涵盖个人助手、企业服务及多Agent协同系统,显著提升任务处理效率。目前开发门槛降低,安全性增强,正推动AI向更智能、协同的方向发展。(1
Agent 不是更聪明的 AI,而是把“确定性工作”程序化,把“不确定性判断”交给大模型的系统设计。
MCP的几种通信协议
因此,MCP 迅速成为互联 AI 系统的基石——到 2025 年底,它不仅被 Anthropic 的模型支持,也被 OpenAI 的 ChatGPT、Google DeepMind 的模型、Microsoft 的 Copilot 等支持,使其成为 AI 与工具交互的事实标准通用适配器。通过在 LangChain 中使用 MCP,开发者可以快速扩展智能体能力,而无需编写自定义集成代码——如果某个工具
那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。面对这些需求,你需要掌握 SQL 语法、HTTP 接口调用、Playwright 自动化、云存储 SDK 等多种技能,还要做大量 “胶水代码” 的开发 —— 把不同协议、不同格式的外部资源和大模型应用拼接起来,开发效率极低,维护成本也高。
这里不过多解释,毕竟我们只是使用而不是实现。简单来说 LLM使用不同工具时,以前需要同时修改模型和工具,因为各工具的API数据格式不统一,导致适配成本高、功能添加慢。MCP协议统一了数据格式标准,规定了应用向LLM传输数据的方式。任何模型只要兼容MCP协议,就能与所有支持MCP的应用交互。这将适配工作从双向简化为单向(仅应用端),且对于已有API的应用,第三方开发者也可基于其API进行MCP封装适
本文通过天才学生的比喻生动阐释了大模型训练的四个关键阶段:1)预训练阶段(博览群书)通过Transformer等架构让模型掌握基础知识和逻辑;2)后训练与对齐阶段(规矩养成)利用SFT、RLHF等技术培养模型的对话能力和价值观;3)推理增强阶段(思维深度)采用CoT、ToT等方法提升模型解决复杂问题的能力;4)智能体阶段(实习干活)通过工具调用、RAG等技术赋予模型执行实际任务的能力。这种分阶段训
单纯的大模型,只能对话和生成文本,是“思想的巨人,行动的矮子”。配上Agent的大模型,能感知环境、使用工具、执行任务,成为“万能助手”。MCP、Function Calling 和 A2A。这三项技术,并不是有你无我的排斥关系,而是可以通力协作的互补关系。大模型通过 Prompt 学习工具使用,实现非结构化任务处理,克服传统规则的“刚性”,使得AGI(Artificial General Int
一、引言(Introduction)模型上下文协议(Model Context Protocol,MCP)已迅速成为 AI 集成领域的“通用适配器”。它让大语言模型(LLMs)与 AI agents 能够以标准化方式、安全地与外部工具、数据与服务交互。许多开发者理解 MCP 的概念,但还没有为自己的 API 构建过 MCP server。在这篇文章中,我们将探讨:为什么把你现有的 RESTful
在本文中,我们将介绍 MCP 是什么,它如何在不同消息客户端之间实现灵活的工具调用,并探讨一种系统架构:把 WhatsApp、Slack 等应用连接到一个中心化的 AI 模型运行时。AI 运行时对渠道是无感知的:无论请求来自 Slack、WhatsApp,还是其他客户端,内部流程完全一致——LLM 处理问题、判断是否需要外部工具、通过 MCP client 调用工具,然后把结果返回给对应渠道。关键
表面上看,MCP 只是个技术协议,但它代表的却是一种更开放、更协同的工程哲学:把能力作为可发现、可授权、可复用的“模块”来管理。随着 MCP 与类似标准的普及,我们不再需要让每个 AI 产品“闭门造车”;相反,更多的工具、能力与创新将像插件一样,随时插入到你的 AI 助手中,形成一个互联互通的智能生态。当大模型学会安全、可靠地“使用工具”而不仅仅是“回答问题”时,它们的价值才真正开始被释放。而 M
一、真实世界场景中的性能与代码质量(Performance and Code Quality in Real-World Development)1、OpenAI Codex(CLI) — 由 OpenAI 强大的模型(例如 GPT-4 及更高版本)驱动,Codex CLI 擅长推理复杂问题并发现细微 bug,尽管有时会比较慢。在调试场景中,许多开发者报告 OpenAI 的 Codex 能提供更一
本文介绍了在Windows环境下搭建基于Cherry AI Studio的MCP服务开发环境。主要内容包括:系统要求(Windows 10/11、Node.js 18+等)、必要工具安装(Node.js、Git、Python)、Cherry AI Studio获取方式以及VSCode替代方案配置。详细讲解了MCP架构和核心概念,并提供了创建TypeScript MCP服务器项目的完整流程,包括项目
摘要: Claude Code是一款强大的AI编程助手,支持代码生成、终端命令执行、多模态交互等丰富功能。本文详细介绍了其环境搭建、交互模式切换、权限管理等基础操作,并深入解析了复杂任务处理、MCP协议实现UI精准还原、上下文管理等高级功能。通过Hook自动化、Agent Skill定制、SubAgent独立任务处理等扩展功能,开发者可将其从基础工具升级为高效生产力平台。文章还以待办应用开发为例,
多模态交互是 AI 硬件的未来。通过 MCP 协议,我们无需升级硬件即可解锁视觉能力,这绝对是 ESP32 玩家和 AI 爱好者不容错过的玩法。赶紧拿起你吃灰的小智设备,去试试“看”世界的感觉吧!相关链接小智 IMCP 官网演示视频 (Bilibili)
我们将首先简要回顾 MCP 在现代 LLM 应用中的角色,然后深入讨论核心挑战,包括:网关编排、上下文管理、多租户、性能与成本权衡、可观测性、安全风险以及扩展性。随后,我们将概述稳定运行 MCP 所需的基础设施和配置要求,并指出开发者在真实系统中部署 MCP 智能体时常见的痛点。一个稳定的生产级 MCP 部署通常包括:可靠的 MCP 工具服务器、具备高可用性的 MCP 网关与注册中心、身份认证系统
一、在 AI 驱动应用中,把智能 Agent 与工具/数据可靠且安全地连接起来,是关键挑战在 AI 驱动的应用世界里,把智能 Agent 与工具和数据可靠、安全地连接起来,是一个关键挑战。两种新兴方案分别从这个问题的不同侧面切入:Kong MCP Registry 侧重于 AI 工具的服务注册与发现,而 Peta 则在这些工具被实际使用时提供运行时控制、可观测性与安全能力。本文将介绍并分析 Kon
本题库覆盖了 MCP 的核心知识体系,是评估 AI 应用开发工程师能力的权威标准。掌握这些内容,意味着候选人不仅能“用”好 MCP,更能“懂”好 MCP,具备构建下一代 AI 原生应用的坚实能力。
Model Context Protocol(MCP)是下一代 AI 工具集成的标准协议,它通过定义清晰的通信框架、能力抽象与安全机制,使得大模型能够以统一、可预测的方式与外部系统进行深度协作。从资源读取、工具调用,到人机协同采样,MCP 正在重塑开发者的工作流。掌握它,不仅是技术能力的体现,更是构建可信、高效 AI 应用的基础。附注:本文纯属虚构,人物设定为戏剧化表达,旨在帮助读者理解MCP的核
MCP协议因其解决AI应用的核心痛点而成为技术圈的“新顶流”。它通过标准化协议层,解决了数据孤岛、功能割裂和安全焦虑等问题,显著提升了AI模型与外部系统的交互效率。MCP的动态发现机制、双向通信架构和安全沙箱设计等技术突破,使其在智能制造、金融科技和医疗健康等领域展现出显著的技术收益。对于独立开发者而言,AI工具链的成熟降低了技术门槛,提供了效率革命、成本优化和能力延展的机遇。开发者可以通过聚焦垂
个人开发者/初创团队:优先考虑Smithery或Cline插件,利用其低门槛与丰富资源快速验证创意。中大型企业:阿里云百炼的合规性与全栈能力更适合复杂业务需求,但需评估供应商锁定风险。技术前瞻性项目:MCP.so与Cursor目录可作为技术雷达补充,用于捕捉协议演进趋势与自动化实践。
当占据全球40%模型市场份额的巨头入场,MCP正式从“小众协议”跃升为“行业基础设施”,热度指数级飙升!它像USB-C接口一样,让所有AI模型(如Qwen、GPT、Claude)能通过统一协议调用外部工具(如文件系统、数据库、API)。评论区告诉我:你最想用MCP连接的工具是什么?的比喻,带你看懂MCP如何颠覆AI工具生态,甚至可能成为“AI界的HTTP协议”!项目,让AI直接操控3D建模工具,三
该项目提供了一个强大的解决方案,使用模型上下文协议 (MCP) 为 AI 聊天界面(如 DeepSeek)扩展本地系统功能。它弥合了基于 Web 的 AI 与本地机器之间的鸿沟,允许 AI 读取/写入文件、执行命令以及使用各种专门的工具。
Google推出的Agent2Agent(A2A)协议为智能体间协作提供了标准化框架,具有安全协作、任务管理、体验协商和能力发现四大特性。通过AgentCard实现服务发现,Task实体管理任务生命周期,支持多种状态流转。协议包含Server/Client架构,支持Artifacts结果存储和智能路由(AIAgentRouter)。相比Anthropic的MCP协议(专注工具集成),A2A更擅长复
一、把 AI 模型连接到外部工具正在变得“必需”将 AI 模型连接到外部工具,正在成为构建高级“Agent(代理)”系统的关键要求。Model Context Protocol(MCP,模型上下文协议)已经成为一种开放标准,用来让这种集成更容易。但即便已经有了 MCP,组织仍然发现:一个代理/网关层依然至关重要——就像在 Web 架构里 Nginx 充当网关一样。本文会解释 MCP 是什么,以及为
一、按工具拆分 MCP Server 的运维复杂度理论上,为每个工具单独部署一个 MCP server 能保持模块化——每个服务都有自己专属的集成端点。然而,这种架构在生产环境中会迅速变得运维复杂。随着工具数量增长,需要运行、配置和维护的 MCP server 数量也随之增加。每个 MCP server 本质上就是一个提供一个或少数工具的微服务。在多用户环境里,这个数量会进一步倍增——例如,如果每
AI智能体开发概念,MCP简介
MCP
——MCP
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net