
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
openManus agent 具体实现agent的详细分析
本文粗浅对比了阿里巴巴的Tongyi DeepResearch和字节跳动的DeerFlow两大深度研究代理框架。
摘要:本文分享了Prompt工程从初版到落地的5次迭代过程,强调"Prompt是测出来的,不是写出来的"核心理念。作者以"产品评价打标签"功能为例,展示如何通过测试发现问题、优化Prompt,重点关注可调试性而非完美结构。文章详细记录了v0.0.1版本的生成过程(利用元提示词+标签体系)、关键问题(情绪判断粗糙/标签匹配不全等)及修正方案,并强调数据质量校验

摘要: 本文探讨了AI评测项目中数据集的关键作用,强调“输入决定输出”的核心逻辑。作者将数据集分为三部分: 知识库(标签体系)——需人工审查确保结构清晰,避免模型幻觉; 自测数据集——用于探索Prompt边界,需覆盖真实场景的多样性; 评测数据集——聚焦发现模型缺陷,需保留基准数据防止“简单错误”。 文章指出,高质量的数据集比Prompt设计更基础,并演示了如何用Langfuse结构化导入数据。最
Prompt caching(提示词缓存)是大语言模型 API 中一项重要的优化功能。当你重复使用相同或相似的提示词时,缓存机制可以显著降低成本和延迟。尤其在考虑成本的时候,不应只看模型的 input 和 output 价格,cache 对成本影响也很大,有的模型可以到第一次成本的 10%。
在 AI Coding ,真正拉开开发者效率差距的,往往不是谁用了 Cursor、谁用了 Copilot,而是谁更拥抱和更懂得怎么和 AI “对上频道”。
在 AI Coding ,真正拉开开发者效率差距的,往往不是谁用了 Cursor、谁用了 Copilot,而是谁更拥抱和更懂得怎么和 AI “对上频道”。
AI Coding从个人工具到团队协作的系统性转变。作者基于85%的AI开发实践,指出效能核心在于思维转变(50%)和协作机制(20%),而非单纯技术。团队复盘中暴露的流程问题(如规范对齐、重复任务处理)揭示AI产研的瓶颈在于组织方式,需通过制定AI操作指南、Prompt资产化等"隐形杠杆"重构工作流。未来将探索产品、测试等环节的AI化,推动从"管理AI"到
AI时代最稀缺的不是答案,而是"好问题"。两派观点争论模型是否等于产品,实则揭示了人类在AI时代的独特价值。模型虽能快速吸收复杂性,但定义问题、设计验证路径、外化需求等核心工作仍需人类完成。真正的产品力来自清晰的问题界定、严谨的集成和可量化的验证。AI工程师的关键能力在于将模糊需求转化为可执行的规范,通过持续观察和迭代来优化模型表现。面对技术焦虑,我们应专注提升"提问
本文粗浅对比了阿里巴巴的Tongyi DeepResearch和字节跳动的DeerFlow两大深度研究代理框架。







