logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Agent】MemOS 源码笔记---(3)---搜索

TreeTextMemory 提供了一个完整的记忆管理系统,能存储、组织、检索和维护各种类型的文本记忆、适用需要复杂记忆管理的AI系统。这是一个基于图的、树形明文记忆,支持以结构化方式组织、关联并检索记忆,同时保留丰富的上下文信息与良好的可解释性。我们可以通过这个TreeTextMemory 对象与庞大的知识库进行交互,为AI赋予专业的领域记忆。当前使用Neo4j作为后端,未来计划支持更多图数据库

#人工智能#语言模型#transformer
【智能硬件】AI 眼镜论文笔记

智能眼镜研究进展:从被动响应到主动服务 近期两篇智能眼镜相关论文展示了AI助手的创新发展方向。《AI for Service》提出主动服务范式Alpha-Service框架,通过轻/重量级模型协同、记忆单元等实现个性化预测性服务;《EgoLife》则聚焦长期生活记忆,构建包含300小时第一人称视频的EgoLife数据集和EgoButler系统,支持7天跨度的生活问答。两研究共同突破传统AI的被动响

#论文阅读#人工智能#嵌入式硬件 +1
AI Agent 框架探秘:拆解 OpenHands(2)--- CodeAct论文

综上,ReAct 作为早期 Agent 的核心范式,在 单一任务、短任务链、弱约束 的场景中依然有价值,但作为企业级、跨域、强约束 Agent 系统的基础架构时,其局限性已经是结构性的,而不是简单通过加强提示词或增加工具种类就能弥补的问题。CodeAct 的核心洞见在于,与其让智能体(Agent)扮演 “文书” 角色生成静态指令,不如使其成为 “程序员”—— 直接生成可执行的 Python 代码,

#人工智能
探秘Transformer系列之(35)--- 大模型量化基础

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

#transformer#深度学习#人工智能
探秘Transformer系列之(28)--- DeepSeek MLA(下)

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#transformer#android#深度学习 +1
【Agent】MemOS 源码笔记---(5)---记忆分类

大模型之所以“忘事”,根本在于我们对“无状态模型”里“上下文窗口”的误解。很多人把它当成一只大箩筐,认为装得越多越好;然而,事实上,上下文窗口更像一块容量有限的工作记忆。硬塞太多信息,只会同时带来如下麻烦:关键内容被噪声淹没,模型抓不住重点,上下文越长,费用和延迟也越高。这不是模型偷懒,而是 Transformer 架构的先天特性。每一次调用都像重新开机:没有长期记忆,上下文一旦过长,注意力就被冗

#人工智能#机器学习
探秘Transformer系列之(36)--- 大模型量化方案

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

#transformer
探秘Transformer系列之(7)--- embedding

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#深度学习#transformer#人工智能 +2
探秘Transformer系列之(22)--- LoRA

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#机器学习#人工智能#深度学习 +3
探秘Transformer系列之(10)--- 自注意力

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#transformer#深度学习#人工智能 +4
    共 67 条
  • 1
  • 2
  • 3
  • 7
  • 请选择