
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这是我换方案后想清楚的事:TiMem 在 hybrid 架构里负责的不是"全部记忆",是最难做的那部分——长期、需要时间序、需要 forget 的用户级记忆。短期会话级 → 直接喂 LLM context(不动 TiMem)跨会话用户记忆 → TiMem 5 层 hierarchy 处理静态知识库 → 上你已有的 RAG 系统(chroma / qdrant / lancedb 任选)TiMem
维度RAGTiMem存储结构扁平向量索引五层时序树时序建模无显式时间约束抽象层次单层(原始 chunks)五层渐进抽象用户画像无法生成L5 自动构建召回策略Top-K 余弦相似度复杂度感知自适应Token 效率低(大量原始片段)高(分层精准召回)微调需求无无(即插即用)LLM 兼容性任意任意。
MCP(Model Context Protocol)是 Anthropic 提出的开放协议,允许 AI 助手在对话过程中调用外部工具。:将当前会话内容存入 TiMem 记忆系统:根据问题检索历史记忆,支持按层级(L1-L5)过滤TiMem 底层使用**时序记忆树(TMT)**架构,五层自动归纳:L1 原始对话片段 ← 毫秒级写入,保留原始细节↓L2 会话摘要 ← 对话结束后自动提炼↓L3 每日总
MCP(Model Context Protocol)是 Anthropic 提出的开放协议,允许 AI 助手在对话过程中调用外部工具。:将当前会话内容存入 TiMem 记忆系统:根据问题检索历史记忆,支持按层级(L1-L5)过滤TiMem 底层使用**时序记忆树(TMT)**架构,五层自动归纳:L1 原始对话片段 ← 毫秒级写入,保留原始细节↓L2 会话摘要 ← 对话结束后自动提炼↓L3 每日总
维度Mem0MemOSTiMem记忆组织扁平 KV图结构五层时序树时序建模无图谱时间戳显式时序树自动层级归纳无无五层自动归纳检索策略语义相似度图遍历+时序复杂度自适应Token 效率基准中等减少 52%MCP 支持✅ 已有✅ 已有开发中接入难度极低中等低长期记忆精度一般较好最优。
本文详细介绍如何通过 OpenClaw 的企业微信插件 WeCom OpenClaw Plugin,快速将 AI 智能体接入企业微信。涵盖安装配置、访问控制、单聊群聊等功能,适合企业内部智能化场景。
整体接入过程比较顺畅,之后基本就是add和search两个接口的事儿。5 层记忆树的设计在长对话场景确实比扁平方案体验好不少。项目还比较新,社区和文档还在完善,但核心功能已经可用了。以上是个人使用记录,如果你也在做 Agent 记忆相关的东西,欢迎评论交流。







