logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

论文解读:生成式智能体让25个AI小人自己组织了一场情人节派对

有没有想过,一个AI能不能"过日子"?不是回答你的问题,不是帮你写代码,不是在benchmark上刷分——而是真的像一个人那样,早上起来刷牙,出门前和家人聊两句,路上碰到邻居寒暄几句选举八卦,晚上因为暗恋某人而纠结要不要邀请对方参加派对。斯坦福和Google的一支团队真的做了这件事——他们造了一个像素风虚拟小镇,放进去25个AI居民,只给了一个种子指令"Isabella想办一场情人节派对",然后什

#人工智能
论文解读:Mem0用7K token干翻26K全量上下文

Mem0展示的不是一个"更好的RAG",而是一种全新的AI记忆范式——从"存储原文"到"提炼记忆",从"被动检索"到"主动维护",从"学术原型"到"生产就绪"。它让AI智能体从"每次对话都是第一次见面"迈向"真正认识你、记住你、理解你"。未来的演化方向至少有三个:一是优化Mem0g的图操作延迟,让关系推理更快;二是探索层次化记忆架构,在效率和关系表达之间找到更优解;三是将记忆框架扩展到对话之外——

#人工智能
论文解读:Mem0用7K token干翻26K全量上下文

Mem0展示的不是一个"更好的RAG",而是一种全新的AI记忆范式——从"存储原文"到"提炼记忆",从"被动检索"到"主动维护",从"学术原型"到"生产就绪"。它让AI智能体从"每次对话都是第一次见面"迈向"真正认识你、记住你、理解你"。未来的演化方向至少有三个:一是优化Mem0g的图操作延迟,让关系推理更快;二是探索层次化记忆架构,在效率和关系表达之间找到更优解;三是将记忆框架扩展到对话之外——

#人工智能
论文解读:MemOS首次把记忆变成大模型的一等公民资源,Scaling Law迎来第三条曲线

如果说过去三年大模型的进化主线是"更大、更快、更聪明",那么从2025年开始,一个被长期忽视的短板正在浮出水面——记忆。你可能已经感受到了。你和ChatGPT聊了三个月,它依然不记得你的名字。你让一个Agent连续执行十轮任务,它在第六轮就忘了第一轮的结论。你在A平台积累的偏好数据,到了B平台全部归零。大模型可以写诗、写代码、做推理,但它不会"记住"——不会像人一样积累经验、保留偏好、持续进化。这

#人工智能
论文解读:MemOS首次把记忆变成大模型的一等公民资源,Scaling Law迎来第三条曲线

如果说过去三年大模型的进化主线是"更大、更快、更聪明",那么从2025年开始,一个被长期忽视的短板正在浮出水面——记忆。你可能已经感受到了。你和ChatGPT聊了三个月,它依然不记得你的名字。你让一个Agent连续执行十轮任务,它在第六轮就忘了第一轮的结论。你在A平台积累的偏好数据,到了B平台全部归零。大模型可以写诗、写代码、做推理,但它不会"记住"——不会像人一样积累经验、保留偏好、持续进化。这

#人工智能
论文解读:MemOS首次把记忆变成大模型的一等公民资源,Scaling Law迎来第三条曲线

如果说过去三年大模型的进化主线是"更大、更快、更聪明",那么从2025年开始,一个被长期忽视的短板正在浮出水面——记忆。你可能已经感受到了。你和ChatGPT聊了三个月,它依然不记得你的名字。你让一个Agent连续执行十轮任务,它在第六轮就忘了第一轮的结论。你在A平台积累的偏好数据,到了B平台全部归零。大模型可以写诗、写代码、做推理,但它不会"记住"——不会像人一样积累经验、保留偏好、持续进化。这

#人工智能
论文解读:多模态智能体长期记忆突破:M3-Agent让AI像人一样“看、听、记、想“

过去几年,AI在"看"和"听"上的能力突飞猛进。GPT-4o能看图说话,Gemini能处理百万Token的上下文,Qwen2.5-Omni能同时理解视频和音频。但这些能力有一个共同的天花板——它们都是"即时处理",没有真正的记忆。这带来了三个致命问题:第一,身份一致性崩塌。一个人在视频前半段穿红衣服、后半段换了蓝衣服,模型就可能把同一个人当成两个人。用文字描述"一个穿红衣服的女人"来追踪身份?时间

#人工智能#机器学习
论文解读:多模态智能体长期记忆突破:M3-Agent让AI像人一样“看、听、记、想“

过去几年,AI在"看"和"听"上的能力突飞猛进。GPT-4o能看图说话,Gemini能处理百万Token的上下文,Qwen2.5-Omni能同时理解视频和音频。但这些能力有一个共同的天花板——它们都是"即时处理",没有真正的记忆。这带来了三个致命问题:第一,身份一致性崩塌。一个人在视频前半段穿红衣服、后半段换了蓝衣服,模型就可能把同一个人当成两个人。用文字描述"一个穿红衣服的女人"来追踪身份?时间

#人工智能#机器学习
论文解读:8K窗口撬动350万Token:MemAgent用强化学习重塑长文本记忆

过去两年,大模型的"记忆力竞赛"几乎成了一场军备竞赛。从4K到128K,从128K到1M,上下文窗口的数字越来越大,厂商的宣传越来越响亮。但你有没有注意到一个尴尬的事实——窗口越大,模型越"健忘"?Qwen2.5-Instruct-1M号称支持百万Token,但在实际测试中,当输入达到896K时准确率直接归零。DeepSeek-R1-Distill-Qwen-32B在56K之后性能断崖式下跌。Qw

论文解读:8K窗口撬动350万Token:MemAgent用强化学习重塑长文本记忆

过去两年,大模型的"记忆力竞赛"几乎成了一场军备竞赛。从4K到128K,从128K到1M,上下文窗口的数字越来越大,厂商的宣传越来越响亮。但你有没有注意到一个尴尬的事实——窗口越大,模型越"健忘"?Qwen2.5-Instruct-1M号称支持百万Token,但在实际测试中,当输入达到896K时准确率直接归零。DeepSeek-R1-Distill-Qwen-32B在56K之后性能断崖式下跌。Qw

    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择