深度拆解 Hermes Agent 记忆系统:它如何修正 OpenClaw 的误区
如果说 OpenClaw 的记忆更像是一本冗长的“流水账”,那么 **Hermes Agent** 则是一套精密的分层存储系统。
引言
如果说 OpenClaw 的记忆更像是一本冗长的“流水账”,那么 Hermes Agent 则是一套精密的分层存储系统。
通过翻阅其代码库,发现 Hermes 的核心逻辑并非“博闻强识”,而是在确保提示词缓存(Prompt Caching)稳定性的前提下,实现记忆的冷热分离。
一、 核心架构:四层记忆阶梯
Hermes 放弃了“单一上下文”的幻想,将记忆拆解为四个互补的维度:
- 精简提示词记忆:存储于
MEMORY.md与USER.md,极致压缩。 - 会话回溯系统:基于 SQLite 的
session_search,支持全文检索。 - 程序记忆 (Procedural Memory):以 Skills(技能) 形式存在的操作指南。
- 深度用户建模:可选的 Honcho 层,解决跨设备记忆连续性。
二、 严格装配线:System Prompt 的构建顺序
这是 Hermes 最令我惊艳的地方。它拥有一条顺序严丝合缝、不可合并、不可调换的组装流水线。这种设计是为了最大限度利用 LLM 供应商的提示词缓存(Prompt Caching)机制。
装配优先级及内容如下:
| 组装顺序 | 模块名称 | 职能描述 | 变动频率 |
|---|---|---|---|
| [0] | Core Identity | 默认智能体身份设定(Role) | 恒定 |
| [1] | Tool Guidelines | 工具使用行为指南与交互约束 | 恒定 |
| [2] | Honcho Module | (可选)外部用户建模集成接口 | 低 |
| [3] | System Message | 开发者定义的静态系统消息 | 低 |
| [4] | MEMORY.md | 固化的个人笔记快照 (环境、规范、教训) | 中(仅会话开始更新) |
| [5] | USER.md | 固化的用户画像快照 (偏好、风格、身份) | 中(仅会话开始更新) |
| [6] | Skills Index | 智能体技能索引(而非全量代码) | 中 |
| [7] | Context Files | 规则定义文件(AGENTS.md, SOUL.md 等) |
中 |
| [8] | Environment | 当前日期、时间、OS 平台信息 | 高 |
| [9] | History | 压缩后的历史对话上下文 | 极高 |
| [10] | User Message | 当前用户最新输入的指令 | 最高 |
架构逻辑: LLM 缓存匹配是从第一个字符开始的连续块。将最稳定的前缀([0]-[7])放在头部,确保了即使对话持续进行,头部缓存依然能被命中,从而大幅降低首字延迟。
三、 持久化层:固化的“冷记忆”
Hermes 将核心记忆限制在 ~/.hermes/memories/ 下的极小空间:
- •
MEMORY.md:限定 2,200 字符(记录项目背景、工具怪癖、报错教训)。 - •
USER.md:限定 1,375 字符(记录沟通风格、个人身份)。
这种设计的精妙之处:
- 字符限制而非 Token 限制:逻辑与特定模型的 Tokenizer 解耦。
- 精选状态 (Curated State):不记 TODO,不记任务进度,只记经过验证的事实。
- 内存隔离:会话中途写入记忆会落盘,但不会立即改变当前 Prompt。只有在新会话或触发“压缩”重建时,这些改动才会生效,以此维护缓存的稳定性。
四、 动态检索:session_search 与记忆冲刷
1. 长尾回溯
当模型需要记起“三个月前聊过的内容”时,它不会翻阅 Prompt 记忆,而是调用 session_search。系统会在 SQLite 数据库中执行全文搜索,并使用一个低成本辅助模型对匹配到的历史会话进行摘要,最后将精华结论反馈给主模型。
2. 记忆冲刷 (Memory Flush)
在长对话触发压缩(Compression)之前,Hermes 会执行一次“抢救性保存”:
- • 下达指令:“会话即将压缩,请将值得留存的偏好和模式写入 MEMORY.md。”
- • 这确保了关键信息在被“洗掉”之前,已经从动态上下文沉淀到了持久化层。
五、 总结:Hermes 到底做对了什么?
相比 OpenClaw 这种“以 Markdown 为中心”的朴素存储,Hermes 展现了工业级的思考:
- • 冷热分离:Prompt 负责高频感知,SQLite 负责低频回溯。
- • 缓存优先:意识到频繁改动 Prompt 头部是性能的“自杀行为”。
- • 程序化记忆:将“如何做事(Skills)”与“你是谁(Memory)”拆分开来。
真正的诀窍不在于记住更多,而是在正确的层级、以正确的成本,记住正确的事情。
学AI大模型的正确顺序,千万不要搞错了
🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!
有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!
就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇
学习路线:
✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经
以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!
我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐


所有评论(0)