logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Opus 4.7 + Claude Code 最佳实践

Anthropic 官方博客解读:Opus 4.7 引入自适应思考、xhigh 努力等级、更精准的响应长度校准,本文详解升级要点和实战配置建议。

#AIGC
第4课:Subagent —— 拆解大任务,上下文隔离

父Agent把大任务拆成子任务,每个子任务用独立上下文执行,只有最终结果返回。用30行Python实现Claude Code的子Agent隔离机制。

#chrome#前端
第5课:按需加载领域知识——Skill机制

10个Skill每个2000 token就是20000 token,大部分跟当前任务无关。两层注入架构让Agent只在需要时才加载对应知识。用40行Python实现Claude Code的Skill加载机制。

#elasticsearch#大数据#搜索引擎 +1
让 AI Coding Agent 真正理解你的代码库:分层上下文工程实践

做法Token 消耗准确性维护成本❌ 让 Agent 每次自己探索高低(靠猜)零⚠️ 单一大 CLAUDE.md中(全量加载)中低✅ 分层按需加载低(只加载相关的)高(人写的精确描述)中(需同步维护)顶层极简:根目录只放索引和全局规则,50 行以内详情下沉:每个子项目维护自己的上下文文件,按需加载代码改了文档也改:同步规则写进不变量,让 Agent 自觉维护。

#java#开发语言
第4课:Subagent —— 拆解大任务,上下文隔离

父Agent把大任务拆成子任务,每个子任务用独立上下文执行,只有最终结果返回。用30行Python实现Claude Code的子Agent隔离机制。

#chrome#前端
Hermes 接 LiteLLM 缓存不生效踩坑记录

Hermes Agent 接 LiteLLM 网关时,因 provider: custom 未显式指定 api_mode,默认走 OpenAI 兼容协议,导致 Prompt Cache 缓存字段从未发送,命中率为 0%。本文记录排查过程、根因分析(api_mode 自动推断逻辑)及修复方法:加一行 api_mode: anthropic_messages,将请求协议从 OpenAI SDK 切换到

#缓存
Anthropic发布神话模型Mythos,却不让你用

因为它太强了——强到能自主发现并利用藏了 27 年的系统漏洞。这个模型叫("神话"预览版)。不是因为它不够好。恰恰相反,是因为它好得让 Anthropic 自己都害怕了。

#系统安全#网络安全#人工智能
两个问题花了一块四:AI Agent 的使用成本到底有多离谱?

两个问题,一块四。一天工作,三千多。这就是 2026 年春天,一个独立开发者使用 AI Agent 的真实成本。贵吗?看跟什么比。跟人力成本比,已经到了同一量级。跟 AI 创造的效率提升比——如果它真的让你一个人干了三个人的活——那可能还是划算的。但"划算"的前提是,你得学会怎么花这些 Token。Token 预算管理。这不是开玩笑。在可预见的未来,"Token 使用效率"可能会成为衡量工程团队能

#人工智能
两个问题花了一块四:AI Agent 的使用成本到底有多离谱?

两个问题,一块四。一天工作,三千多。这就是 2026 年春天,一个独立开发者使用 AI Agent 的真实成本。贵吗?看跟什么比。跟人力成本比,已经到了同一量级。跟 AI 创造的效率提升比——如果它真的让你一个人干了三个人的活——那可能还是划算的。但"划算"的前提是,你得学会怎么花这些 Token。Token 预算管理。这不是开玩笑。在可预见的未来,"Token 使用效率"可能会成为衡量工程团队能

#人工智能
让 AI Coding Agent 真正理解你的代码库:分层上下文工程实践

做法Token 消耗准确性维护成本❌ 让 Agent 每次自己探索高低(靠猜)零⚠️ 单一大 CLAUDE.md中(全量加载)中低✅ 分层按需加载低(只加载相关的)高(人写的精确描述)中(需同步维护)顶层极简:根目录只放索引和全局规则,50 行以内详情下沉:每个子项目维护自己的上下文文件,按需加载代码改了文档也改:同步规则写进不变量,让 Agent 自觉维护。

#java#开发语言
    共 15 条
  • 1
  • 2
  • 请选择