logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Gemini 3 Pro 给了10Mtoken context,60% 这个数字让我换回了记忆方案

这是我换方案后想清楚的事:TiMem 在 hybrid 架构里负责的不是"全部记忆",是最难做的那部分——长期、需要时间序、需要 forget 的用户级记忆。短期会话级 → 直接喂 LLM context(不动 TiMem)跨会话用户记忆 → TiMem 5 层 hierarchy 处理静态知识库 → 上你已有的 RAG 系统(chroma / qdrant / lancedb 任选)TiMem

#人工智能#机器学习#深度学习
RAG 不是记忆:深度对比RAG 与TiMem 架构差异,向量检索为何不够用

维度RAGTiMem存储结构扁平向量索引五层时序树时序建模无显式时间约束抽象层次单层(原始 chunks)五层渐进抽象用户画像无法生成L5 自动构建召回策略Top-K 余弦相似度复杂度感知自适应Token 效率低(大量原始片段)高(分层精准召回)微调需求无无(即插即用)LLM 兼容性任意任意。

#架构#人工智能#jira +1
TiMemMCP Server 实战:给Cursor / Claude Code 接入五层时序记忆

MCP(Model Context Protocol)是 Anthropic 提出的开放协议,允许 AI 助手在对话过程中调用外部工具。:将当前会话内容存入 TiMem 记忆系统:根据问题检索历史记忆,支持按层级(L1-L5)过滤TiMem 底层使用**时序记忆树(TMT)**架构,五层自动归纳:L1 原始对话片段 ← 毫秒级写入,保留原始细节↓L2 会话摘要 ← 对话结束后自动提炼↓L3 每日总

#人工智能#c++
TiMemMCP Server 实战:给Cursor / Claude Code 接入五层时序记忆

MCP(Model Context Protocol)是 Anthropic 提出的开放协议,允许 AI 助手在对话过程中调用外部工具。:将当前会话内容存入 TiMem 记忆系统:根据问题检索历史记忆,支持按层级(L1-L5)过滤TiMem 底层使用**时序记忆树(TMT)**架构,五层自动归纳:L1 原始对话片段 ← 毫秒级写入,保留原始细节↓L2 会话摘要 ← 对话结束后自动提炼↓L3 每日总

#人工智能#c++
AI 记忆框架深度评测2026:Mem0 vs MemOS vs TiMem,架构差异与选型指南

维度Mem0MemOSTiMem记忆组织扁平 KV图结构五层时序树时序建模无图谱时间戳显式时序树自动层级归纳无无五层自动归纳检索策略语义相似度图遍历+时序复杂度自适应Token 效率基准中等减少 52%MCP 支持✅ 已有✅ 已有开发中接入难度极低中等低长期记忆精度一般较好最优。

#人工智能#架构#开源软件 +1
企业微信接入 AI 智能体:OpenClaw WeCom 插件使用教程

本文详细介绍如何通过 OpenClaw 的企业微信插件 WeCom OpenClaw Plugin,快速将 AI 智能体接入企业微信。涵盖安装配置、访问控制、单聊群聊等功能,适合企业内部智能化场景。

#人工智能
5 分钟给你的 AI Agent 加上长期记忆(TiMEM 实战)

整体接入过程比较顺畅,之后基本就是add和search两个接口的事儿。5 层记忆树的设计在长对话场景确实比扁平方案体验好不少。项目还比较新,社区和文档还在完善,但核心功能已经可用了。以上是个人使用记录,如果你也在做 Agent 记忆相关的东西,欢迎评论交流。

#人工智能#python3.11#开源软件
到底了