Yunzai-MCP-Plugin: 解放你的双手,利用LLM实现Yunzai-Bot插件自动化测试与全权限调试
是一款专为设计的插件,其核心目标是实现大型语言模型(LLM)与Yunzai-Bot的无缝通信。通过MCP(Machine Control Protocol)工具集,你的AI Agent(无论是本地IDE还是云端模型)都可以获得一个强大的后端,从而实现对Yunzai-Bot的全权限调试和自动化插件测试能力。简单来说,装上这个插件,你的Yunzai-Bot就开启了一个对LLM开放的API网关,让AI能
摘要
你是否还在为如何将强大的大型语言模型(LLM)与Yunzai-Bot结合进行插件开发、测试而烦恼?你是否渴望摆脱繁琐的手动沙盒调试,实现真正意义上的自动化工作流?Yunzai-MCP-Plugin 横空出世,它将彻底改变你的开发体验!本文将详细介绍这款插件,它如何赋予你的LLM(如Claude Code, Codex, GLM-4等)直接与Yunzai-Bot通信、模拟消息、执行指令、甚至重启Bot的超能力。
📖 一、项目简介:打通LLM与Yunzai的桥梁
Yunzai-MCP-Plugin 是一款专为 trss Yunzai (V3) 设计的插件,其核心目标是实现大型语言模型(LLM)与Yunzai-Bot的无缝通信。通过MCP(Machine Control Protocol)工具集,你的AI Agent(无论是本地IDE还是云端模型)都可以获得一个强大的后端,从而实现对Yunzai-Bot的全权限调试和自动化插件测试能力。
简单来说,装上这个插件,你的Yunzai-Bot就开启了一个对LLM开放的API网关,让AI能够像一个真正的开发者一样,与Bot进行深度交互。
✨ 二、核心功能亮点
-
🤖 全功能Bot控制: 不仅仅是消息收发,更能通过API对Bot进行重启、关闭、状态查询等深度操作。
-
✉️ 任意消息模拟: 轻松构造任何用户、任何群聊的入站消息,无论是简单的文本,还是复杂的按钮(Button)消息段,都能完美模拟,让插件测试覆盖所有场景。
-
🚀 统一的入站API: 提供
mock.incoming.message
唯一入口,无论是私聊还是群聊,LLM只需调用一个接口即可完成消息注入,极大简化了联调逻辑。 -
🛠️ 强大的调试能力: 内置丰富的调试指令,如内存查看、性能分析、Redis操作、API压测等,方便快速定位问题。
-
🔌 客户端/IDE集成: 完美兼容主流的MCP客户端工具(如MCP Router, Codex, ClaudeCode, Augment, Trae),提供清晰的JSON配置文件,快速集成到你的AI开发环境中。
-
🔐 安全可控: 所有敏感操作均有权限开关,并且通过API Key进行鉴权,保证了Bot的安全性。
📸 三、效果演示
百闻不如一见,下图展示了如何利用MCP工具,通过LLM模拟不同用户测试wind-plugin
修仙游戏的过程。从创建测试文档,到模拟用户A、用户B、以及群聊环境下的修炼功能,所有操作一气呵成,极大地提升了开发与测试效率。
🚀 四、快速上手指南
只需简单的几步,即可为你的Yunzai-Bot插上LLM的翅膀!
1. 安装插件
进入Yunzai-Bot的 plugins
目录,执行以下命令:
GitHub源:
Bash
git clone https://github.com/XuF163/Yunzai-MCP-plugin ./plugins/Yunzai-MCP-plugin
Gitee源 (国内用户推荐):
Bash
git clone https://gitee.com/xyzqwefd/Yunzai-MCP-plugin ./plugins/Yunzai-MCP-plugin
2. 安装依赖
进入插件目录,安装所需依赖:
Bash
cd ./plugins/Yunzai-MCP-plugin
pnpm install
3. 构建代码
由于项目核心模块采用TypeScript编写,首次使用需要进行编译:
Bash
npm run build
编译产物会生成在 model/dist/
目录下。
4. 启动Yunzai-Bot
正常启动你的Yunzai-Bot即可。首次启动,插件会自动在 config/
目录下生成用户配置文件 config.yaml
。
🕹️ 五、赋能AI编程工具:自动化测试新范式
这才是Yunzai-MCP-Plugin的核心魅力所在! 它不仅仅是一个API集合,更是为 Claude Code、Codex、Trae 这类先进的AI编程助手和IDE Agent量身打造的“手臂”和“眼睛”,让它们能够真正地“操作”和“验证”你的Yunzai插件。
告别手动,拥抱智能自动化
传统的插件测试需要开发者手动输入指令、切换账号、观察返回,过程繁琐且容易出错。而现在,你可以将整个测试流程交给你的AI Agent:
-
AI设计测试用例: 你只需要下达一个高层指令,例如:“帮我测试‘天气插件’的所有功能,包括正常查询、城市不存在和API超时的场景。”
-
Agent生成并执行API调用: 你的LLM编程助手(如Codex)会分析代码,理解功能,并自动生成一系列
mock.incoming.message
API调用。它能模拟不同用户(user_id
)、不同群聊(group_id
),发送各种测试消息。 -
实时结果验证: API调用会同步返回Bot的真实回复。AI Agent可以直接分析这些返回数据,判断功能是否符合预期,甚至能理解图片、按钮等复杂消息内容。
-
生成测试报告: 测试完成后,AI可以为你生成一份详细的测试报告,指出哪些功能通过,哪些失败,以及失败的原因。
对接主流AI编程工具
通过简单的JSON配置,你可以将本插件的能力无缝集成到你的工作流中。在你的IDE(如VS Code配合Agent插件)或编程平台(如Cursor, Trae)中,设置MCP服务:
JSON
// 在你的AI工具的MCP配置中加入以下内容
// 注意:将args中的路径替换为你的实际绝对路径!
{
"mcpServers": {
"yunzai-mcp": {
"command": "node",
"args": [
"D:\\path\\to\\your\\Yunzai\\plugins\\Yunzai-MCP-plugin\\model\\dist\\mcp-server.js"
],
"env": {
"YUNZAI_API_KEY": "mcp-yunzai-2024",
"YUNZAI_BASE_URL": "http://127.0.0.1:2536"
}
}
}
}
配置完成后,你的AI Agent就获得了名为 yunzai-mcp
的工具集,可以直接调用其中的动作,例如 yunzai-mcp/mock_incoming_message
。
自动化测试带来的革命性好处
-
极致的效率提升: 将数小时的手动测试缩短为几分钟的AI自动执行。
-
更广的测试覆盖: AI可以轻松模拟各种复杂的、临界的、甚至意想不到的用户行为,这是手动测试难以企及的。
-
实现真正的TDD/BDD: 你可以先让AI用自然语言编写测试描述,然后让它实现插件代码并通过自己编写的测试,形成开发-测试的完美闭环。
-
结语
Yunzai-MCP-Plugin 为所有Yunzai-Bot开发者和LLM应用探索者提供了一个前所未有的强大工具。它不仅仅是一个插件,更是连接AI与Bot生态的一座坚实桥梁,是实现开发自动化、智能化的关键一步。立即安装体验,让你的AI Agent成为你最得力的插件测试工程师!
更多推荐
所有评论(0)