
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
摘要:Peter Steinberger展示了AI编程(Vibe Coding)的极致形态,一天提交688次commit,其中296次来自AI项目Clawdbot。与传统开发流程不同,Vibe Coding通过自然语言描述需求,AI生成代码并直接提交,将开发时间从数天缩短至数小时。然而,研究发现仅10.5%的AI生成代码是安全的,常见漏洞包括硬编码敏感信息、SQL注入、路径遍历等。AI编程还导致技

摘要:Peter Steinberger展示了AI编程(Vibe Coding)的极致形态,一天提交688次commit,其中296次来自AI项目Clawdbot。与传统开发流程不同,Vibe Coding通过自然语言描述需求,AI生成代码并直接提交,将开发时间从数天缩短至数小时。然而,研究发现仅10.5%的AI生成代码是安全的,常见漏洞包括硬编码敏感信息、SQL注入、路径遍历等。AI编程还导致技

clawdbot是一款开源AI助手,能操作浏览器、调用API、访问shell,强调沙盒隔离和系统化能力。文章从编排、触发、可观测性三方面分析如何将其从"能用"升级为"敢长期跑"的自动化系统:1)任务编排需拆解阶段并设置护栏;2)通过cron、事件和人工触发实现自动化运转;3)建立日志、指标、追踪、审计的可观测性闭环。建议从低风险场景起步,逐步构建可靠的自动化

大模型上线后的安全风险主要来自Prompt Injection(提示注入),即用户通过输入或外部文档植入恶意指令,诱导模型越权操作。防御需分层处理:1)输入层过滤敏感内容;2)提示词明确信任边界;3)RAG场景净化数据源;4)工具调用实施白名单与最小权限;5)输出层脱敏敏感信息;6)持续监控异常行为。核心原则是将外部内容视为不可信数据,通过工程手段(如权限控制、审计日志)而非单纯依赖模型判断来降低

大模型幻觉问题的工程解决方案 大模型上线后常出现“幻觉”问题,如编造事实、虚假引用等,难以通过Prompt彻底解决。本文提出一套工程化组合拳: 引用(Grounding):强制基于证据回答,标注来源,无证据时拒答 约束(Constraints):通过结构化输出、范围限定减少自由发挥 拒答(Refusal):证据不足时明确告知并引导用户补充信息 工具验证(Tool):可验证数据(如订单、计算)交由工

摘要: Agent技术虽热,但盲目使用可能增加工程复杂度,而非加速落地。文章指出,Agent仅适用于路径不确定、需多步规划和动态工具选择的任务,否则会带来成本、延迟和安全性等问题。列举了10种不应使用Agent的场景(如固定流程、高风险操作等),并建议优先采用工作流、RAG或单次工具调用等替代方案。提供决策树帮助判断是否需要Agent,强调必须设置停止条件、权限控制和评测体系。最后给出上线前的关键

摘要:大模型工具调用工程实践指南 本文针对大模型应用中从纯Chat转向工具调用时遇到的典型问题,提出了一套工程化解决方案。核心内容包括: 四大失败模式: 超时/不可用 参数幻觉 越权访问 重复副作用 关键工程实践: 分类处理不同失败场景 实施参数Schema校验 权限白名单控制 超时熔断机制 幂等键保障 实用工具: 提供重试/回退策略表 最小Python实现骨架 上线自检清单 文章强调工程落地性,

摘要: 大模型接入业务后,结构化输出不稳定(如JSON格式错误、字段缺失等)成为常见问题,若不处理将导致解析失败、成本上升和体验下降。文章提出一套工程方案:约束→解析→校验→修复重试→降级兜底,核心包括: 明确Schema,用Pydantic/JSON Schema校验; 提取JSON片段,避免文本污染; 有限次修复重试,提示词聚焦修复; 降级策略,返回可读文本+错误码。 附Python模板,覆盖

大模型应用降本三板斧 大模型上线后成本常因调用次数增加、上下文变长等问题飙升。本文提出工程化降本策略: 缓存:减少重复调用,包括响应缓存、工具缓存、检索缓存和语义缓存。 摘要/压缩:精简对话历史、上下文和工具返回,减少无效 token。 多模型路由:根据任务风险分级,将请求分发给合适模型,并设置回退策略。 关键执行点: 优先监控 token、延迟、错误率等指标。 先限制 token 预算与重试,再

大模型上线后,供应商的价格、计费策略或限流策略变化常导致预算超支、延迟飙升等问题。本文提供了一套可落地的工程方法:首先将变化转化为变量(价格影响P_in/P_out,计费影响T_in/T_out统计,限流影响并发),通过P50/P95评估典型成本和兜底上限。应对策略按优先级实施:建立数据闭环→设置预算门禁→优化token使用→调整重试机制→引入缓存→最后考虑模型路由。关键是将成本、延迟和错误率指标








