logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI Agent 框架探秘:拆解 OpenHands(6)--- 事件系统

每一个Eventid: 事件的唯一标识符。source: 事件的来源,可以是AGENTUSER或。timestamp: 事件发生的时间戳。cause: 触发此事件的另一个事件的id。将系统中的所有互动都抽象为Event,我们得到了一种通用的语言。无论是Agent的决策、用户的消息还是环境的反馈,都可以统一处理、存储和分发。特别是cause字段,它像一条看不见的线,将Action和它引起的Obser

#人工智能#语言模型
AI Agent 框架探秘:拆解 OpenHands(5)--- 交互&会话

有意义的多轮对话要求智能体能够理解上下文。就像人类一样,智能体需要记住对话历史:已经说过和做过什么,以保持连贯性并避免重复。以下是OpenHands Applications的示例图,本篇就来看看会话和交互如何进行。因为本系列借鉴的文章过多,可能在参考文献中有遗漏的文章,如果有,还请大家指出。WebSession 是一个 Web 服务器绑定的会话包装器,负责管理单个 Web 客户端连接并协调 Ag

#交互#网络#人工智能 +1
AI Agent 框架探秘:拆解 OpenHands(4)--- 服务

本篇结合官方文档进行解读OpenHands的服务器,这是OpenHands系统的立身基础。因为本系列借鉴的文章过多,可能在参考文献中有遗漏的文章,如果有,还请大家指出。

#人工智能#语言模型#服务器
AI Agent 框架探秘:拆解 OpenHands(3)--- 启动

这些提示词中融入了特定领域的知识准则与操作规范,例如,与Git相关的Microagent,其提示词会包含Git操作的核心技巧与最佳实践,能够引导模型更精确地处理与Git相关的任务,成为主代理应对细分场景的“得力助手”。run_controller 作为 OpenHands 后端单个会话的核心入口协程,核心职责是依据预设配置启动运行时环境、智能体及对应控制器,搭建起从接收用户指令到多步骤执行任务,再

#人工智能
【Agent】MemOS 源码笔记---(3)---搜索

TreeTextMemory 提供了一个完整的记忆管理系统,能存储、组织、检索和维护各种类型的文本记忆、适用需要复杂记忆管理的AI系统。这是一个基于图的、树形明文记忆,支持以结构化方式组织、关联并检索记忆,同时保留丰富的上下文信息与良好的可解释性。我们可以通过这个TreeTextMemory 对象与庞大的知识库进行交互,为AI赋予专业的领域记忆。当前使用Neo4j作为后端,未来计划支持更多图数据库

#人工智能#语言模型#transformer
【智能硬件】AI 眼镜论文笔记

智能眼镜研究进展:从被动响应到主动服务 近期两篇智能眼镜相关论文展示了AI助手的创新发展方向。《AI for Service》提出主动服务范式Alpha-Service框架,通过轻/重量级模型协同、记忆单元等实现个性化预测性服务;《EgoLife》则聚焦长期生活记忆,构建包含300小时第一人称视频的EgoLife数据集和EgoButler系统,支持7天跨度的生活问答。两研究共同突破传统AI的被动响

#论文阅读#人工智能#嵌入式硬件 +1
AI Agent 框架探秘:拆解 OpenHands(2)--- CodeAct论文

综上,ReAct 作为早期 Agent 的核心范式,在 单一任务、短任务链、弱约束 的场景中依然有价值,但作为企业级、跨域、强约束 Agent 系统的基础架构时,其局限性已经是结构性的,而不是简单通过加强提示词或增加工具种类就能弥补的问题。CodeAct 的核心洞见在于,与其让智能体(Agent)扮演 “文书” 角色生成静态指令,不如使其成为 “程序员”—— 直接生成可执行的 Python 代码,

#人工智能
探秘Transformer系列之(35)--- 大模型量化基础

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

#transformer#深度学习#人工智能
探秘Transformer系列之(28)--- DeepSeek MLA(下)

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#transformer#android#深度学习 +1
【Agent】MemOS 源码笔记---(5)---记忆分类

大模型之所以“忘事”,根本在于我们对“无状态模型”里“上下文窗口”的误解。很多人把它当成一只大箩筐,认为装得越多越好;然而,事实上,上下文窗口更像一块容量有限的工作记忆。硬塞太多信息,只会同时带来如下麻烦:关键内容被噪声淹没,模型抓不住重点,上下文越长,费用和延迟也越高。这不是模型偷懒,而是 Transformer 架构的先天特性。每一次调用都像重新开机:没有长期记忆,上下文一旦过长,注意力就被冗

#人工智能#机器学习
    共 65 条
  • 1
  • 2
  • 3
  • 7
  • 请选择