
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
DETRpioneeringly地将Transformer引入目标检测,以集合预测(Set Prediction)的方式,实现了这一目标。然而,DETR的“初心虽好”,却也带来了训练收敛缓慢、查询(Query)含义模糊等问题。DINO通过3种创新使得在性能、收敛速度和模型效率上均取得了突破,首次确立了端到端Transformer检测器在主流 benchmarks 上的领先地位。

本文提出了一种名为的新型人工智能框架,旨在实现 AI 系统的完全自主进化。DGM 结合了哥德尔机 (Gödel Machine) 的理论愿景——即 AI 能够递归地重写自身代码以提升性能——与达尔文进化论的实证方法。与需要形式化证明每一次修改都有益的理论哥德尔机不同,DGM 通过在沙箱环境中进行实证评估 (empirical validation)来验证修改的有效性,并通过开放式探索 (open-

核心结论MUSE (Memory-Utilizing and Self-Evolving) 框架通过引入层级化记忆和自我反思机制,解决了 LLM 智能体在长时序任务中无法从经验中学习的问题。在 TheAgentCompany (TAC) 基准测试中,MUSE 仅使用轻量级的模型,便取得了51.78%的成功率,以20%的相对优势超越了此前由 Claude-3.5 Sonnet 驱动的 SOTA (O

这篇论文提出了一种名为的新型智能体框架,其核心在于实现了递归式的自我改进 (Recursive Self-Improvement)。不同于以往依赖固定架构(Hand-Designed)或固定元学习算法(Meta-Learning Optimized)的智能体,Gödel Agent 受 Jürgen Schmidhuber 的 Gödel Machine 启发,具备自我指涉 (Self-Refer

提出了一种针对复杂工具调用场景的自引导式上下文学习 (Self-Guided ICL)框架。传统的 RAG 方法通常仅依赖语义相似度来检索示例,这在多步推理和工具链规划中往往失效。SEER 的突破在于将检索维度高维化——不仅看 Query 的语义,还考量轨迹相似度工具链覆盖率和意图对齐。更进一步,它引入了在线经验累积 (Online Experience Accumulation)

当前 LLM Agent 的核心瓶颈在于上下文长度与任务复杂度的矛盾。InfiAgent 通过将状态管理从 Prompt 中剥离,提出了一种以文件为中心 (File-Centric)的状态抽象机制,从根本上解决了长时序任务中的上下文无限增长问题。核心结论: 在 DeepResearch 基准测试中,InfiAgent 使得一个仅20B 参数的开源模型,能够在无需特定微调的情况下,达到甚至超越 GP

本篇速览仅选取了文章的重点部分, 希望更详细了解的请阅读原文. 原文非常详尽.γ†α†, et al. (Princeton, Tsinghua, UIUC, HKU 等联合团队)

本文提出了一种名为Reflexion的框架,旨在解决大型语言模型 (LLM) 在作为智能体 (Agent) 执行任务时,难以通过传统的强化学习 (RL) 方法进行快速、低成本学习的问题。Reflexion 的本质是将“策略优化” (Policy Optimization) 从参数空间 (Parameter Space) 转移到了上下文空间 (Context Space)。

通过极简的递归结构实现超越大模型的逻辑推理能力。本文提出了一种名为的架构,旨在解决复杂推理任务(如数独、ARC-AGI)。核心突破:证明了不需要复杂的生物学类比或双网络层级结构,仅使用一个单网络、2层深度的微型模型 (7M参数),通过递归推理和深度监督,即可在逻辑任务上显著超越等超大模型以及先前的 HRM 模型。关键发现:在数据稀缺且需严密逻辑的场景下,模型参数并非越大越好。“极小网络 + 深度递

在数字化文档基础设施的宏伟版图中,PDF(Portable Document Format)始终占据着一种悖论式的地位:它既是全球通用的文档交换标准,也是数据资产化道路上最难攻克的障碍之一。随着生成式人工智能(AIGC)和大型语言模型(LLM)的爆发,PDF解析技术正经历从“人类视觉呈现”向“机器语义重构”的范式转移。







