
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍如何借助 CLIProxyAPI 项目,免费使用 Google Antigravity 平台上的 Claude Opus 4.5 等顶级大模型。步骤包括下载 CLIProxyAPI 源码、修改配置文件、用 Docker 部署容器、安装 EasyCLI 并完成 Google 授权,还可在 Cherry Studio 等第三方平台及代码中调用,解决 token 焦虑,且 Google One

阿里通义千问团队最新推出Qwen-Image-2512文生图模型和Qwen-Image-Edit-2511图生图模型,在AI Arena盲测中表现优异。Qwen-Image-2512在人物质感、自然纹理和文字渲染方面实现显著提升,而Qwen-Image-Edit-2511则增强了图像一致性、多人融合等功能。文章详细介绍了如何在Dify平台部署这两款模型的工作流,包括插件安装、API配置和节点设置,

AI视频生成与复刻工具:AI-video-Replicate 这是一款开源AI视频工具,支持Seedance、Sora2等主流模型,提供文生视频、图生视频和视频复刻三大功能。核心特性包括多模型支持、实时进度显示和内置样例视频。技术栈基于Python 3.11+和Gradio框架,使用Qwen3-VL进行视频分析。部署方式灵活,支持本地Python环境和Docker容器化部署,需配置各模型的API密

本文介绍使用 Rovo Dev Agents 零代码实现基于 Mermaid 的 MCP - Server 服务。先引入 Rovo Dev Agents 替代被禁的 claude code,接着找开源项目生成 PRD 文档并审查,后让其生成代码,最后通过 SSE 和 stdio 两种方式验证测试,全程未手动写代码。

本文介绍基于字节豆包大模型 1.6,利用火山引擎 API,通过 AI 生成代码搭建文生图、文生视频、图生视频的 MCP - Server,涵盖 API 代码编写、MCP 服务器实现、客户端配置、服务器发布及云服务验证等内容,展现其提升 AI 助手响应质量的作用。

本文介绍如何通过jimeng-mcp-server让Claude直接调用即梦AI的文生图、图像合成、文生视频、图生视频四大功能。项目基于Anthropic开源的MCP协议,采用三层架构设计,实现10-20倍Token。兼容Claude Desktop、CherryStudio等主流客户端。文章提供从环境准备、后端部署、MCP安装到功能测试的完整实战教程,开发效率提升95%。

2025 年 5 月 14 日,阿里巴巴开源通义万相 Wan2.1-VACE 模型,支持文生视频等多任务。其具全面可控生成、局部与全局编辑等能力,通过多模态输入处理实现高效信息交互。文中还介绍了在魔搭社区的部署及推理测试情况。

本文介绍了用 Dify 构建 AI 辅助教学动画 HTML 页面生成工具的流程,以 Google Gemini 2.5 Pro 等模型为核心,结合可视化编排与自定义接口,能生成符合 2K 标准、带双语字幕的动画页面,还提供了工作流制作、测试及体验地址。

本文介绍 Model Context Protocol(MCP),演示用 Python SDK 开发包搭建 MCP-Server。涵盖 UV 依赖管理、VSCode 开发、Cherry Studio 测试,还介绍 sse 方式及云服务器部署,最后用 dify、N8N 验证 SSE 服务。

本文主要分享了实现文生视频的 MCP server 的情况,借助 fastapi_mcp 及 sse 方式,难度不大。鼓励感兴趣者基于该框架将之前的 fastapi 服务端接口改造成支持 MCP server 服务,通过改造程序能更好掌握流行的 MCP server,最后邀大家关注,期待下一篇文章。








