logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI Agent 框架探秘:拆解 OpenHands(2)--- CodeAct论文

综上,ReAct 作为早期 Agent 的核心范式,在 单一任务、短任务链、弱约束 的场景中依然有价值,但作为企业级、跨域、强约束 Agent 系统的基础架构时,其局限性已经是结构性的,而不是简单通过加强提示词或增加工具种类就能弥补的问题。CodeAct 的核心洞见在于,与其让智能体(Agent)扮演 “文书” 角色生成静态指令,不如使其成为 “程序员”—— 直接生成可执行的 Python 代码,

#人工智能
探秘Transformer系列之(35)--- 大模型量化基础

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

#transformer#深度学习#人工智能
探秘Transformer系列之(28)--- DeepSeek MLA(下)

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#transformer#android#深度学习 +1
【Agent】MemOS 源码笔记---(5)---记忆分类

大模型之所以“忘事”,根本在于我们对“无状态模型”里“上下文窗口”的误解。很多人把它当成一只大箩筐,认为装得越多越好;然而,事实上,上下文窗口更像一块容量有限的工作记忆。硬塞太多信息,只会同时带来如下麻烦:关键内容被噪声淹没,模型抓不住重点,上下文越长,费用和延迟也越高。这不是模型偷懒,而是 Transformer 架构的先天特性。每一次调用都像重新开机:没有长期记忆,上下文一旦过长,注意力就被冗

#人工智能#机器学习
探秘Transformer系列之(36)--- 大模型量化方案

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

#transformer
探秘Transformer系列之(7)--- embedding

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#深度学习#transformer#人工智能 +2
探秘Transformer系列之(22)--- LoRA

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#机器学习#人工智能#深度学习 +3
探秘Transformer系列之(10)--- 自注意力

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#transformer#深度学习#人工智能 +4
探秘Transformer系列之(32)--- Lookahead Decoding

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#transformer#深度学习#人工智能
探秘Transformer系列之文章列表 --- 更新至第 29 篇

从零开始解析Transformer,目标是:(1) 解析Transformer如何运作,以及为何如此运作,让新同学可以入门;(2) 力争融入一些比较新的或者有特色的论文或者理念,让老鸟也可以有所收获。

文章图片
#transformer#深度学习#人工智能 +2
    共 65 条
  • 1
  • 2
  • 3
  • 7
  • 请选择