在这里插入图片描述


如果你用过OpenClaw一段时间,并且在尝试让它连接更复杂的工具链时,你可能逐渐被一个问题困住——“我的AI确实能做些文件管理和发邮件的杂活儿,但工业级的RDBMS怎么接?公司内部的自定义业务API能直接打通吗?哪天需要换一个完全不同的大模型后端,难道整个工具集得推翻重来?”

这些困惑的根源并非你的OpenClaw配得不够好,而是传统AI集成模式本身就存在死穴。几乎每一个AI模型要对接一个新工具,都需要重写一套专属的适配层——数据库一家一个SDK、CRM另一套流程、内部API又要从头调,“M×N集成问题”让所有的扩展都显得吃力不讨好。

这正是MCP(Model Context Protocol)诞生的核心战场。MCP是一个由Anthropic在2024年11月发布后迅速席卷全球AI巨头的开源连接标准,定位是AI集成领域的“USB-C接口”。它通过一套语言模型无关的标准化Client-Server架构,将工具、数据源与AI模型的连接从过去“每次写定制代码的苦差事”变成“配置即集成、发现即使用”的即插即用体验。从2026年的生态来看,MCP已全面并入Linux基金会治理,不仅引向RPC 2.0技术栈,更催生了一个月下载量超过9700万次、全球独立索引到17468个MCP Server的庞大工业生态。

对于你我这样OpenClaw的使用者或下一代AI应用开发者,MCP不再是一个遥远的“未来派协议”,而是一个已经落地的“用得上、用得顺、还能自己动手扩展”的基础连接工具。本课我们将依序拆解MCP到底是什么、为什么OpenClaw需要它,以及OpenClaw如何嵌入MCP生态。在此基础上,我们还将搭建一个定制SQLite MCP Server,并用OpenClaw + MCP完成跨库的自然语言数据查询。

19.1 什么是MCP(Model Context Protocol)

一句话概括:MCP是AI集成领域的工业级解耦方案——通过标准化Client-Server架构、JSON-RPC 2.0交互和三大能力(Resources、Tools、Prompts),将AI模型与外部世界“即插即用”,终结过去野蛮生长的N×M定制集成年代。

2026年初,AI开发正迎来一场“泛Agent化”的浪潮。越来越多的企业把AI助理、Copilot和自动化工作流纳入核心生产基座。难题随即浮出水面:AI模型种类飞速膨胀,而它们需要连接的外部系统和工具也在飞速增长。每个模型对接每个工具都需要写一套定制代码,这种N×M复杂度直接被产业经验性总结为“M×N集成噩梦”。更致命的是,模型思维再强,没有数据、没有动作系统照样是“孤岛”——它们读不到代码库、查不了数据库、改不了配置、碰不到物理设备,本质上仍受困于所谓的“上下文饥荒”(Context Starvation)。

MCP正是在这个裂缝中崛起的最关键基础设施。

核心定义与开源

MCP最早由Anthropic在2024年11月首次公开为开源协议。甫一发布,Anthropic就确立了它的核心使命:建立一个厂商中立、应用无关的连接层,代替过去所有“模型-数据”之间的硬代码粘合剂。发布后的18个月,MCP从一家公司的实验性尝试,加速演进为覆盖Anthropic、OpenAI、Google、Microsoft、AWS等全行业头部玩家的基础设施。2025年12月,MCP正式移交至Linux基金会旗下的Agentic AI Foundation进行独立治理,标志着它已成为事实上的行业标准而不再是某一家巨头推动的技术推广。

截止2026年4月,MCP SDK月下载量已达9700万次,独立索引到17468个MCP Server。MCP已经跨越了原型探索的阶段,2025年底到2026年正在成为企业级就绪的一年。

The USB-C Analogy:为什么用这个比喻?

一位MCP贡献者及整个技术社群普遍将其比作AI的“USB-C”。USB-C之前,每个电子设备都有自己的充电线,混乱且不兼容。USB-C用一个通用接口替代了数百种杂乱的标准。MCP同理:过去要开发一套AI集成,必须先明确模型阵营(比如Claude、GPT还是Gemini)再分别对接各平台;而现在工具和数据源只要构建成标准的MCP Server,任何支持MCP的主机(如Claude Desktop、Cursor、OpenClaw等)就可以直接使用。

从N×M集成到“一次开发,到处可用”

传统模式以一个典型的公司场景为例:一个团队使用GPT、Claude和Gemini分别做聊天、代码审查和运维分析;它们同时需要访问内部数据库、GitHub工作流、Slack通讯三套外部系统。传统做法每组合需要一套定制适配:GPT+内部数据库一套代码,GPT+GitHub又一套代码……随着模型和工具持续增多,开发成本呈灾难级暴涨。MCP将模型与工具的依赖关系彻底解耦——工具开发者只需开发一次MCP Server,所有支持MCP Client的主机都能同时调取该Server的全部能力并自动向模型注入Resources。

这直接引用自LSP(Language Server Protocol)的设计哲学:编辑器与编程语言服务器的适配不再需要各自去绑定VSCode、Vim等,语言作者只需维护一份LSP Server。

MCP三层能力(Resources、Tools、Prompts)

MCP Server向任何MCP Host公开三种标准化的原子能力:

能力 定义 典型场景
Resources(资源) — 结构化的上下文数据,由Host主动读取并注入模型,作为任务背景知识 本地/云数据库中的特定字段、文件内容、API返回的记录集
Tools(工具) — 模型可主动调用的函数 “发送Slack通知”“在GitHub创建议题”“在PostgreSQL执行查询”
Prompts(提示模板) — Server预定义的重复性任务模板 “生成本周数据汇总报告”“创建标准欢迎回复”

绝大多数MCP Server的可交互核心集中在Resources及Tools的组合上。当一个MCP Host(如OpenClaw)连接到MCP Server后,模型推理时可以动态读取Server暴露的Resources以增强上下文,可以按需调用Tools去真实行动,一个Server能够兼具两种角色。

Client-Server架构(Host/Client/Server)

MCP基于标准Client-Server结构,其中包含三个不同组件角色的明确区分:

  • MCP Host:运行大模型和Agent的主程序。例如Claude Desktop、Claude Code、Cursor、ChatGPT桌面版,当然也包括我们专栏一直使用的OpenClaw。Host触发对话时,内部会创建MCP Client来连接外部Server。
  • MCP Client:寄生在Host内部的一对一通信协调模块——当Host需要调用多个MCP Server,会生成多个Client,各自独立维持与特定Server的连接。
  • MCP Server:实际提供数据源和工具逻辑的“服务端模块”。Server可以由官方、第三方软件厂商或社区开发者维护。Server向外部公开Resources、Tools和Prompts,并透过JSON-RPC 2.0协议与Client交互。

MCP的核心价值总结

  • 对外,终结M×N集成噩梦:工具和数据的维护者只需要开发一次Server,就能被所有主流MCP Host无缝集成。AI开发者不再需要在每次切换模型或引入新工具时重新造轮子。
  • 对内,隔离“思考”与“行动”:协议确立了清晰的职责边界——模型负责推理,Server负责提供数据与执行能力。双方的演进可以在不破坏兼容性的前提下并行推进。

19.2 OpenClaw中MCP的实现机制

一句话概括:MCP在OpenClaw中不是强制的默认依赖,而是一种可选的寄生集成——OpenClaw既可作为MCP Client(调用外部Server的工具与数据),也可作为MCP Server(向其他MCP Host暴露OpenClaw的核心能力),视集成需求自由切换。

许多读者误以为MCP是OpenClaw的底层通信支柱,实际上官方描述中MCP在OpenClaw执行路径上被定位为“control surface(控制面)”,而非它的主消息接收器(main ingress)。一言以蔽之,OpenClaw自己的Gateway与渠道通信并不依赖MCP,但MCP为OpenClaw向更大范围AI生态开放提供了透明稳定的“外挂通道”。

方向一:OpenClaw作为MCP Client(消费外部能力)

当一个开发人员希望OpenClaw直接调用第三方的MCP Server提供的工具与资源时,OpenClaw会以MCP Client的身份注册这些服务器,并使用MCP协议与它们通信。大模型在解决用户问题时,可以感知到这些MCP来源的Resources并决定调用哪个Server的工具完成请求。

配置示例:

假设我们需要接入一个SQLite MCP Server。在OpenClaw的MCP服务配置区域增加以下定义:

{
  "mcpServers": {
    "sqlite-local": {
      "command": "npx",
      "args": ["-y", "@pollinations/mcp-server-sqlite", "/Users/me/projects/database.db"],
      "env": {
        "PATH": "<your-node-bin-path>",
        "NODE_PATH": "<your-node-modules-path>"
      }
    }
  }
}

OpenClaw在启动时加载MCP配置文件,并行连接到各个Server。模型一旦在用户的提示中嗅出数据库需求,便会触发调取Server暴露的工具(例如execute_sql)。

方向二:OpenClaw作为MCP Server(向其他AI模型开放能力)

在反向场景下,可以将OpenClaw本身包装成一个大型MCP Server,从而允许Cursor、Claude Code或Kiro等其他Agent以MCP Client的模式连接、查询OpenClaw提供的工具集。AWS官方近期发布的一则实践报告显示,Kiro通过MCP调用OpenClaw触达外部世界,OpenClaw则通过ACP委派Kiro完成深度的代码生成与架构分析,实现了Agent与Agent之间的双向协作。

Kiro的配置配置案例

Kiro在.kiro/settings/mcp.json中配置如下MCP Server条目指向OpenClaw:

{
  "mcpServers": {
    "openclaw": { 
      "command": "npx", 
      "args": ["-y", "@openclaw/mcp-server"] 
    }
  }
}

一旦OpenClaw MCP Server被外部AI发现并连接,该外部AI会通过MCP协议获取OpenClaw向它暴露的工具清单。这仅需要7个工具,包括同步/异步消息发送、任务状态、实例管理等。核心工具openclaw_chat则扮演“万能入口”,外部模型通过自然语言输入,委托OpenClaw执行其内部拥有的所有能力。

19.3 MCP与服务、数据源的集成

一句话概括:MCP作为瑞士军刀式的标准化集成层,已经覆盖了数据库、API网关和云原生服务等主流场景,从根本上降低了AI接入企业基础设施的工程复杂度。

截至2026年第一季度,MCP生态覆盖的数据源与服务类型已趋于均衡。从最早一批个人实验性质的分支,到如今银行、制造业、政务云等组织将MCP规模化集成到数据基础设施,2026年被定位为企业就绪MCP应用的关键年份。其对接方式可以分为三大主流类型。

集成类型一:数据库类MCP Server

AI代理通过MCP Server直接查询、分析甚至修改数据库内容,是最具代表性的集成方式。开箱即用的SQLite MCP Server允许AI代理执行SQL查询、列出表、导出完整数据库。该Server还自带轻量级HTTP API,供其他服务(例如前端仪表盘)直接访问数据表,绕过LLM上下文。

面对PostgreSQL或MySQL,社区同样提供完整的MCP Server,包括表结构探索、读查询、限流与批量操作。

集成类型二:企业应用与API类MCP Server

在企业场景中,数据往往被封装在各类SaaS产品背后。MCP Server通过将公开API包装为标准的Resources和Tools,极大降低了AI集成成本。主流的MCP供应商使AI代理能够直接向GitHub发Issue、读取Slack消息、查询Jira工单状态,甚至与Salesforce的客户数据交互。

在2026年,MCP还进入大规模金融、医疗监管等高度合规行业。企业可以使用MCP处理财务数据、PII(个人身份信息)等敏感资料,并利用Server所暴露的明确的控制面和安全性治理接口来落地合规策略。

集成类型三:云原生MCP集成(Cloudflare/Azure/AWS)

各大云服务商已拉开MCP基建竞赛。Cloudflare提供在边缘部署远程MCP Server的方法,借助可流式HTTP传输新版规范打通全球边缘网络。Azure支持开发者从模板项目快速创建自定义远程MCP Server,在Function扩展中集成访问Azure存储、SQL Database及第三方接口。

19.4 通过MCP接入外部工具链和外部知识库

一句话概括:MCP接入外部工具与知识库的典型落地场景分为“行动型”MCP tools(调API完成操作)与“知识型”MCP resources(把海量本地文档注入AI上下文)两类,打破了模型只能依赖提示词和预训练知识的固化边界。

场景一:行动型集成 —— 让AI真正干活

典型的例子是MCP与GitHub的结合:代理通过MCP的create_issuesearch_code等Tools直接改变GitHub Issue、PR的状态或检索项目代码。这使AI不再是“只会写草稿”,而是能真正参与项目协作。

在OpenClaw已有文件技能、浏览器自动化的基础上,MCP的加入进一步扩展了边界。MCP Server将公司内部的审批流API包装成Tools,模型在用户请求挂起时可以自主执行审批操作。

场景二:知识型集成 —— 文档+代码注入模型上下文

高性能的MCP Server可以在几分钟内索引一个大型项目的全部文档文件夹,分割为Resources供LLM检索。AI在对话中不仅能完成总结,还能精准回答“这个文件里第120行是什么”的微观问题。

MCP集成对开发效率的提升

根据Forrester的测算,企业使用MCP后开发成本平均降低30%,GitHub报告指出AI辅助工作流的任务完成速度能提升55%。体现在OpenClaw生态中,开发者从“每连接一个新服务都要手写适配器”提升到“用MCP即插即用”,显著加速了企智能化的落地。

19.5 MCP Server的自定义开发

一句话概括:只要有Node.js或Python的基础,使用MCP官方SDK和Inspector调试工具,一小时就能实现第一个自定义MCP Server,将任何内部服务通过标准化方式对接给OpenClaw等AI主机。

构建一个定制MCP Server是为了解决特殊场景的刚需——当外部没有现成的数据库、内部私有工具或本地文件结构的MCP封装时,就需要自己动手编写专属MCP Server。

为了展示完全可运行的Node.js实现,后续实战将引入更完整的SQLite-Query MCP Server样例。在此先概述基础开发路径。

Node.js Hello World MCP Server

创建基础目录,初始化npm项目。安装MCP官方SDK:

mkdir my-mcp-server
cd my-mcp-server
npm init -y
npm install @modelcontextprotocol/sdk
npm install typescript @types/node --save-dev

编写src/index.ts,这是最小可运行MCP Server的骨架:

import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";

// 创建服务器实例
const server = new McpServer({
  name: "my-first-mcp-server",
  version: "1.0.0"
});

// 定义一个工具(tool)
server.tool(
  "greet",
  { name: { type: "string" } },
  async ({ name }) => ({
    content: [{ type: "text", text: `Hello, ${name}! from MCP server.` }]
  })
);

// 启动服务器(使用 stdio 传输)
async function main() {
  const transport = new StdioServerTransport();
  await server.connect(transport);
}
main().catch(console.error);

编译后运行,并利用Inspector工具进行调试:

npx @modelcontextprotocol/inspector node build/index.js

核心工具设计原则

结合OpenClaw实际落地需求,自定义MCP Server选择工具命名清晰、参数类型定义严谨的原则——使用Zod或TypeScript的类型系统校验入参类型。Server应避免长时间阻塞LLM推理,建议对IO密集型操作设计流式响应或任务状态轮询。

19.6 MCP生态与OpenClaw的协同发展

一句话概括:MCP正在催化AI Agent层级的“互操作性革命”,而OpenClaw作为诞生于早期且不依赖MCP的独立Agent运行时,正通过适配层融入这场变革,在“不被协议绑定”和“随时可接入生态”之间取得平衡。

OpenClaw:自带肌肉,不依赖MCP但无缝融入MCP

很多新人认为MCP是OpenClaw的执行引擎核心,但事实恰好相反。OpenClaw的Gateway内部大多数核心能力(文件Skill、邮件技能、浏览器自动化技能)是与MCP协议完全解耦的,它们直接通过内置Tool调用系统资源。MCP在OpenClaw执行路径上属于“控制面”,而非主接收器的核心成分。这种定位不会削弱OpenClaw的能力,反而赋予了它最难得的自由度——对一个尚在演进的工业标准保持独立,同时通过MCP的接入接口随时接入整个新生态中的数万个Server。

MCP + ACP:Agent间双向协作的完整双通道

AWS实践报告中设计Kiro与OpenClaw的双通道协作,生动呈现了MCP在未来Agent网格中的角色:Kiro通过MCP调用OpenClaw,OpenClaw通过ACP委派Kiro完成复杂编码任务,在架构评审、数据日报、异步编码等场景达到数倍效率提升。标准化的工具调用协议让AI Agent之间可以相互委托——MCP是目前覆盖最广的事实选择。

Skill市场 vs MCP生态的竞合

ClawHub的Skill体系与MCP Server不是竞争关系,而是不同维度的能力复用。Skill通过SKILL.md提供流程性指导,而MCP Server偏重具体的工具实现,两者可以在OpenClaw中共存。

19.7 实战:通过MCP接入数据库查询能力

本节课最硬核的实战部分我们将搭建一条完整闭环:在OpenClaw中启用一个MCP SQLite Server,从而让大模型能够以自然语言查询本地数据库并获取结构化结果。

第①步:准备SQLite数据库

创建一个样例数据库:

sqlite3 ~/projects/company.db

创建表并插入数据:

CREATE TABLE employees (
  id INTEGER PRIMARY KEY,
  name TEXT NOT NULL,
  department TEXT,
  salary INTEGER
);

INSERT INTO employees (name, department, salary) VALUES
  ('张三', '技术部', 15000),
  ('李四', '技术部', 16000),
  ('王芳', '市场部', 12000);

第②步:在OpenClaw中配置SQLite MCP Server

使用@pollinations/mcp-server-sqlite这个可直接通过npx调用、无需全局安装的轻量Server。在OpenClaw的MCP配置区域(如~/.openclaw/mcp/servers.json)加入:

{
  "mcpServers": {
    "company-db": {
      "command": "npx",
      "args": ["-y", "@pollinations/mcp-server-sqlite", "/Users/me/projects/company.db"]
    }
  }
}

第③步:重新加载MCP配置

执行以下命令重新加载配置:

openclaw mcp reload

检查服务器连接状态:

openclaw mcp list

第④步:通过自然语言查询数据库

在聊天的WebUI或Telegram窗口输入自然语言请求:

"帮我查询公司员工表中所有技术部员工的姓名和薪资"

OpenClaw自动匹配Intelligence,验证SQL数据库映射路径,通过MCP调用Server暴露的execute_sql工具,执行SQL代码——底层对应的实际查询就是SELECT name, salary FROM employees WHERE department = '技术部'。查询结果可以被模型语义化总结返回。

第⑤步:进阶——通过MCP做统计分析

尝试让AI做更高级的关键分析:

"技术部员工的平均薪资是多少?"

模型的思考路径:确认“技术部”的筛选条件→计算出平均薪资数值→以自然语言回答。

19.8 本节小结

  • MCP是什么? 一个由Anthropic发起、涵盖资源(Tools+Resources+Prompts)三层能力,基于[Client-Server]架构让AI模型安全连接外部系统的开放集成标准,已由Linux基金会纳入组织治理,月下载近1亿。
  • MCP在OpenClaw中的角色定位:MCP在OpenClaw中是独立的控制面,非主消息接收器。OpenClaw既可作为Client消费供外部MCP Server的能力,也可作为Server向其他AI主机提供其核心能力。
  • MCP×数据源集成:从SQLite/MySQL/PostgreSQL到企业SaaS API再到云原生服务,MCP已经达成广泛连接,Forrester评估能使开发负担降低30%。
  • 构建MCP Server:通过官方SDK和Inspector工具,一天内即可构建轻量化自定义Server提供内部数据库访问、文件打包等场景。
  • OpenClaw + MCP实战:在OpenClaw中配置SQLite MCP Server后,大模型能直接以自然语言完成“统计技术部员工平均薪资”等跨库复合查询。

MCP不是用来取代OpenClaw自身核心能力的“革命者”,而是作为“万能插头”把OpenClaw生态拉到数十亿级算力的AI基础设施坐标系中。今天拿到的SQLite Server只是第一步,下一课将是Websocket的最后一击——全方位剖析OpenClaw的全链路通讯协议,让你彻底掌握从客户端到Server再到数据库每一层的性能调优。

19.9 课后习题

1. MCP架构角色辨析

MCP体系内存在Host、Client和Server三个独立组件。请用自己的语言简要概括哪些产品/进程在MCP生态里属于Host,哪些属于Server,以及Client在整个架构中扮演什么角色。参照课程中“Claude Desktop+OpenClaw”场景举例说明这三者是如何协作的。

2. MCP in OpenClaw两种姿态

分别阐述OpenClaw作为MCP Client和MCP Server的场景。你需要各自给出一个阶段性的配置示例来解释当OpenClaw扮演Client时是如何接入外部服务的;当OpenClaw扮演Server时是如何让Kiro绕开Gateway直接调用其能力的(参考AWS博客的内容)。

3. 搭建SQLite MCP Server实践

在你的本机或云环境中配置好SQLite数据库,按照19.7节的指引将@pollinations/mcp-server-sqlite加入OpenClaw的MCP配置并确认连接。向OpenClaw发送一条类似“统计employees表中技术部的平均薪资”的自然语言查询,记录下整个响应过程。如果首次连接失败,使用openclaw mcp listopenclaw logs命令定位问题排错。

4. MCP Tool开发:快速原型

基于19.5节的Node.js Scenarios脚手架,开发一个简化版MCP Tool:接收temp参数,返回“当前GPU温度是XX度”。

⚠️安全提醒:此Tool建议在沙箱或完全隔离的虚拟环境下实现,防止对真实物理硬件的误操作。发布到生产环境前,必须在AGENTS.md中增加高风险工具的操作规范,避免模型在无人工确认前调用control_fan等影响硬件行为的方法。

5. MCP生态与OpenClaw Skill的对比

对于一名企业运维人员,当一个内部新需求出现时,他应该在哪些场景下优先开发OpenClaw的Skill,哪些场景下更合适开发MCP Server?找出关键区别并给出理由。


🔗《30节课精通 OpenClaw》系列课程导航

去订阅

第一部分(第1-5课):基础认知与入门部署——解决“这是什么、怎么搭建”的问题。
第二部分(第6-10课):核心原理深度剖析——解决“底层怎么工作”的问题。
第三部分(第11-15课) :应用场景与平台集成——解决“能用来做什么”的问题。
第四部分(第16-21课) :技能开发与定制扩展——解决“如何自己扩能力”的问题。
第五部分(第22-26课):高级特性与性能优化——解决“怎么用得更好”的问题。
第六部分(第27-30课) :安全、运维与生态进阶——解决“如何安全可靠地规模化”的问题。

🌟 感谢您耐心阅读到这里!
💡 如果本文对您有所启发欢迎:
👍 点赞📌 收藏 📤 分享给更多需要的伙伴。
🗣️ 期待在评论区看到您的想法, 共同进步。
🔔 关注我,持续获取更多干货内容~
🤗 我们下篇文章见~

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐