
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
用AI自动标记Bug优先级,并不是要取代测试和开发的判断,而是为了减少不必要的扯皮,把人的精力从“争论等级”中解放出来,投入到更有价值的“解决Bug”中去。根据我们的实践效果,上线这套系统后,开发和测试关于Bug等级的争议减少了约60%,**P0/P1级别的Bug响应速度提升了近30%**。当然,这不是一蹴而就的过程,需要数据、算法和流程的配合。如果你的团队也正被Bug定级问题困扰,不妨试试这条路
先从一个问题切入:你觉得 Prompt 最大的坑是什么?它没法沉淀。你花半小时打磨了一个 Prompt,反复测试终于满意了。小心翼翼存进备忘录。下次做同样的事,打开新对话,把 Prompt 贴进去——效果不一样了。可能是模型升级了,可能是上下文变了,反正就是不对味。于是你从头调。又调半小时。每一次用 Prompt,都像在临时配一把钥匙。钥匙配好了能开门,但门锁过段时间就换,你就得重新配。费时间,还
这套流程在我们的团队实施后,最大的改变不是测试不用写用例了,而是极大地降低了沟通成本。在“提测”这个动作发生的瞬间,测试同事实时得到了结构化的信息。哪怕 AI 生成的不完美,测试也只需要在这个基础上微调,而不是盯着几个单词冥思苦想。脚本中我故意设置了,即使 AI 接口挂了或返回错误,也不会导致整个项目的 Pipeline 挂掉。自动化通知只是辅助,不能是硬约束。如果追求确定性,OpenAI 提供了
这套流程在我们的团队实施后,最大的改变不是测试不用写用例了,而是极大地降低了沟通成本。在“提测”这个动作发生的瞬间,测试同事实时得到了结构化的信息。哪怕 AI 生成的不完美,测试也只需要在这个基础上微调,而不是盯着几个单词冥思苦想。脚本中我故意设置了,即使 AI 接口挂了或返回错误,也不会导致整个项目的 Pipeline 挂掉。自动化通知只是辅助,不能是硬约束。如果追求确定性,OpenAI 提供了
写这篇文章的时候,我翻出去年那个“智能问答机器人”的代码看了看。那时候的我,满脑子想的都是“怎么把检索做得更准”“怎么把Prompt写得更好”。检索再准,也解决不了“不会思考”的问题。传统RAG像是给了AI一双好眼睛,让它能看清书上的字;而Agent Skills给了AI一个会思考的大脑,让它知道该看什么书、怎么看、看完怎么用。“Skills是专业知识的封装与传递机制”。通过Skills,AI可以
写这篇文章的时候,我翻出去年那个“智能问答机器人”的代码看了看。那时候的我,满脑子想的都是“怎么把检索做得更准”“怎么把Prompt写得更好”。检索再准,也解决不了“不会思考”的问题。传统RAG像是给了AI一双好眼睛,让它能看清书上的字;而Agent Skills给了AI一个会思考的大脑,让它知道该看什么书、怎么看、看完怎么用。“Skills是专业知识的封装与传递机制”。通过Skills,AI可以
这条路,本质上就是一条「测试逻辑回归主线」。01科技Benchmark:像极了只跑 Happy Path 的测试过去几年,AI 行业最重要的评价方式,是 Benchmark。刷分、排名、对比,一套走得非常顺。问题是,这套东西对真正的落地越来越不管用。为什么?
今天写这篇文章的时候,那个教用户“绕过系统”的bug已经被修复了。我们加了专门的安全过滤层,把那种“骚操作”回答都拦下来了。但我知道,这只是开始。明天可能又会有新的翻车方式——AI太新了,我们都是在摸着石头过河。那天领导站在我工位旁边不说话,最后说了一句:“测完再上。我说:“测不完的。他愣了一下。我说:“AI这东西,没有‘测完’那一天。只有‘测到能接受的风险程度’那一天。他点点头,走了。这大概就是
Claude Code 是什么:从聊天模型到可执行代理Claude Code 的系统定位:为什么它不像普通 AI多 Agent 架构:从单一智能体到协作系统Claude Code 的运行形态与工具边界从 0 到 1:一个 Agent 项目的最小闭环Agent 设计:如何把抽象需求落成可执行角色MCP 工具层:能力扩展的真正来源Agent 创建与初始化机制实际运行效果:它解决的核心问题是什么从工程视
在 OpenClaw 的设计中,Skill 的加载被拆成了三个阶段。它并不复杂,但每一步都很“工程化”:先检查浏览器是否已连接,再打开文章链接,等待页面完整渲染后抓取快照,最后从结构化的 HTML 中提取标题、作者和正文内容。它并没有试图再造一个“更大的模型”,而是选择了一条更工程化的路:把 AI 的能力拆成一个个可插拔、可复用、可进化的单元,在真正需要的时候再加载。如果你之前用过 Agent,却







