
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
TaskClaw是一个轻量级AI任务自动化框架,通过YAML配置文件实现工作流自动化,无需编写代码。核心特点包括:1)使用YAML配置降低使用门槛;2)内置多种实用工具(LLM调用、文件操作、HTTP请求等);3)开源免费且易于扩展。典型应用场景包括GitHub趋势监控、会议纪要生成和竞品价格追踪等,可显著提升工作效率。项目采用模块化设计,包含工作流解析器、执行器和工具注册表三个核心组件,支持快速

本文对比了MCP协议在Java和Python生态中的实现差异。实验环境采用Java 21+Spring Boot 3.4和Python 3.12+mcp 1.6.0,从基础实现、性能表现和项目集成三个维度进行测试。结果显示:Python版本仅需18行代码即可实现时间服务,而Java版本需要62行但类型更安全;性能测试中,Java的平均延迟为2.1ms(P99 3.5ms),优于Python的3.8

摘要 本文记录了作者整合 FastAPI、LangGraph 和 MCP 构建 AI Agent 过程中遇到的四个主要技术问题及解决方案: MCP Server 与 LangGraph 的事件循环冲突:因异步上下文管理机制冲突导致"Event loop is closed"错误,通过全局复用 MCP Client 解决。 全局变量在 FastAPI 多进程环境失效:发现 Fas

说实话,第一次听说 Cloudflare Agents SDK 的时候,我脑子里全是问号:这玩意儿和 LangChain 有啥区别?Durable Objects 又是啥?边缘部署 AI 真的能省 latency 吗?抱着试试的心态,我花了一晚上折腾了这个 Demo。结果挺意外的 —— 部署确实快,但坑也不少。这篇文章就是想记录一下真实的上手过程,不是 polished 的教程,而是带着 bug

分享自己在探索MCP协议过程中的三个关键踩坑经历:1)误以为进程启动就能立即通信,实际上需要等待服务端就绪;2)错误套用Function Calling参数格式,发现MCP使用不同的inputSchema结构;3)忽略JSON消息必须显式分隔的要求。文章揭示了MCP与Function Calling的本质差异,指出思维定势比技术本身更易造成障碍。作者最终实现了一个包含5个工具的实验项目,并探讨了M

本文探讨了如何让AI agent主动反馈MCP server的功能缺陷。作者受PatchworkMCP项目启发,开发了一个简化版的反馈系统,包含结构化上报接口和可视化看板。实验表明,当明确告知使用场景时,agent能精准识别并上报缺失功能。这种反馈机制能帮助开发者理解agent的真实需求,改进MCP设计。虽然实验版缺少聚类、PR生成等高级功能,但验证了"让agent主动反馈"这

本文介绍了如何通过MCP协议让Claude Code参与完整的开发工作流。作者实现了让AI直接执行Docker构建、运行测试、查看git状态等DevOps任务,并分享了开发过程中遇到的权限、跨平台兼容等技术挑战。虽然项目尚不完善,但展示了AI参与整个软件生命周期的可能性,预示着"VibeDevOps"的新趋势。文章提供了开源代码地址和快速上手指南,鼓励读者体验AI辅助开发的新模

摘要: 微软研究论文指出AI Agent自生成技能几乎无效,而人工设计技能可提升16.2%成功率。作者通过实验验证这一结论,设计了三种测试模式:纯LLM、人工工具(计算器、文本分析等)和LLM自生成工具定义。结果发现人工工具在精确任务中效果显著,但编写过程复杂,需精细调整参数、错误处理和描述文案;而自生成工具因无法绑定实际代码执行,难以闭环。实验表明技能设计需权衡精确性与灵活性,未来或需人机协作审

摘要:本文介绍了一个AI编程模型对比项目,旨在测试GPT-5.3 Codex和Claude Opus 4.6在实际编程场景中的表现。不同于传统基准测试,该项目设计了算法题、Bug修复和代码重构三类任务,关注代码风格、边界处理等实用维度。初步测试显示:Codex速度更快、代码简洁,Opus更稳健、注释详细。作者指出两种模型各有所长,建议根据场景选择工具。项目目前存在样本量小、评估主观等局限,计划未来

摘要:作者探索了AGENTS.md这一新兴标准,旨在统一AI编码工具的配置管理。通过实验项目(https://github.com/YaBoom/agents-md-zyt),作者尝试解析该Markdown格式文件,发现其能有效解决多工具配置碎片化问题。虽然当前实现仍有局限(如代码块处理、验证规则等),但验证了统一配置的可行性。AGENTS.md因其简单实用且获主流工具支持而具有潜力,未来可能与A








