
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
上个月有个朋友找我帮忙,他在 Coze 上搭了一套客服 Bot,用的是平台自带的模型,效果一般。他想换成 GPT-5.5 来跑,但折腾了两天没搞定——Coze 的插件配置界面改了好几版,网上的教程大部分还是 2024 年的截图,对不上号。我花了一个周末帮他把三种方案都试了一遍,这里把完整过程记下来。Coze 接入 GPT API 的核心思路是:通过 Coze 的「插件」或「自定义模型」功能,把外部
如果你已经有 RAG 系统,或者上下文需要实时从数据库/API 拉取,就得用 ContextProvider。"""从向量数据库动态拉取相关文档作为上下文"""# 根据用户问题去 RAG 检索# 把检索结果包装成 ContextBlock。
上周 DeepSeek v4 预览版一上线,HN 直接炸到 1886 分,我的群也跟着炸了——「v4 是不是真干翻 GPT-5 了?」「Claude 4.6 还有优势吗?」「千问旗舰到底什么水平?每次有新模型出来,我都得重新跑一遍评测,团队要决定接哪个模型、预算怎么分配。这次趁 DeepSeek v4 刚出,我把手头项目常用的 7 个模型全部拉出来跑了一轮,测了编码、推理、长文本、多模态四个维度。
上周有个朋友问我:「你那个客服 Agent 是怎么做到同时查订单、算退款、还能写邮件的?」我说这玩意儿迭代了三版,从一个巨大的单 Agent 硬塞所有逻辑,到现在拆成 5 个专职 Agent 协作完成任务。说白了就是三步走:单 Agent 全能模式 → Router + 专职 Agent → 多 Agent 异步协作编排。每个阶段解决的问题不一样,踩的坑也完全不同。这篇文章就是我这半年折腾 Age
上周有个朋友问我:「你那个客服 Agent 是怎么做到同时查订单、算退款、还能写邮件的?」我说这玩意儿迭代了三版,从一个巨大的单 Agent 硬塞所有逻辑,到现在拆成 5 个专职 Agent 协作完成任务。说白了就是三步走:单 Agent 全能模式 → Router + 专职 Agent → 多 Agent 异步协作编排。每个阶段解决的问题不一样,踩的坑也完全不同。这篇文章就是我这半年折腾 Age
上个月我们团队决定把 DeepSeek V4 部署到自己的 GPU 集群上,跑一些内部的代码和文档生成任务。说实话,模型跑起来不难,难的是怎么让它在生产环境稳定运行——我花了差不多一周时间,才把从容器化、K8s 编排到 Prometheus 监控的整条链路跑通。这篇文章把我踩过的坑和最终方案都整理出来了,希望能帮你少走弯路。
说真的,今天那篇供应链攻击的文章让我挺后怕的。我们每天用各种 AI 工具写代码,却很少想过这些工具本身是否安全。VS Code 插件不是装越多越好。不用的赶紧删,尤其是那些要读你代码的 AI 插件,认准官方的别在 .zshrc 里 export API Key了,真的会被读到的gitleaks 装一个,5 分钟的事,可以救你一命Key 管理要集中化,散落在 12 个文件 7 个平台的 key,你迟
本文分享了语音 AI Agent 延迟优化的完整实战经验,从 2 秒延迟压缩到 500ms 以内。涵盖流式架构改造、VAD 智能化、LLM 推理加速(Prompt 缓存 + 模型路由)、TTS 流式合成等关键优化手段,附完整代码示例和性能对比数据。
好多朋友找到我说,大霖,GPT-Image-2 这个图片生成模型到底怎么调 API?官方文档看得头大,代码跑不通,Key 还申请不下来。行,今天我把这事儿一次性说清楚。GPT-Image-2 是 OpenAI 2026 年推出的最新图片生成模型,通过兼容 OpenAI 协议的 API 即可调用。整个流程就三步:注册拿 Key、了解接口参数、跑通 Python 代码。我自己实测下来,从注册到第一张图
昨晚用 OpenClaw 跑长文本生成任务,跑到一半控制台突然蹦出来,整个 Agent 链路直接断了。我以为是网络抖了,重试了几次还是一样。折腾到凌晨两点,把能踩的坑都踩了一遍,总算搞清楚怎么回事了。







