
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
今天,pi团队在其博客中正式官宣π0.7,又出新的技能了!博客链接:https://www.pi.website/blog/pi07paper链接:https://www.pi.website/download/pi07.pdfpi团队训练了一个名为的新模型,它在通用性上实现了一个质的飞跃。这是一个通用模型,它不仅能像那些经过专门微调的“偏科生”一样,出色地完成各种灵巧操作任务,更重要的是,π0.

世界模型(World Models)是具身智能体连接感知、预测与决策的核心。这篇综述首次通过一个创新的三轴分类法,为这个复杂而充满活力的领域建立了一个清晰、全面的认知框架。该框架不仅系统性地梳理了现有工作的脉络,也为未来的研究提供了明确的方向。

UniPR 通过创新的端到端架构与位姿感知形状表示(PASR),成功打破了传统三维感知与重建流水线在推理效率与真实物理比例上的双重瓶颈。我们期待这一开源框架与 LVS6D 数据集能为具身智能领域的精准 Real-to-Sim 转移提供可靠的基座支持,进一步推动机器人在真实物理世界中的复杂交互与灵巧操作。本研究由南洋理工大学(NTU)王子为(Ziwei Wang)老师团队与腾讯 Robotics X

UniPR 通过创新的端到端架构与位姿感知形状表示(PASR),成功打破了传统三维感知与重建流水线在推理效率与真实物理比例上的双重瓶颈。我们期待这一开源框架与 LVS6D 数据集能为具身智能领域的精准 Real-to-Sim 转移提供可靠的基座支持,进一步推动机器人在真实物理世界中的复杂交互与灵巧操作。本研究由南洋理工大学(NTU)王子为(Ziwei Wang)老师团队与腾讯 Robotics X

ORV 提出了一个突破性的以4D Occupancy为中心的解耦架构,成功打破了稀疏控制与密集视觉之间的表征壁垒。其卓越的视觉保真度、跨视角几何一致性以及对下游策略学习的显著增益,为具身智能领域的仿真与生成模型研究提供了极具价值的新范式。未来,团队将继续探索结合在线4D占据预测技术,摆脱对离线数据的依赖,并引入更细粒度的全身关节动作表征,向着“超长视野(Long-horizon)复杂任务的实时闭环

ORV 提出了一个突破性的以4D Occupancy为中心的解耦架构,成功打破了稀疏控制与密集视觉之间的表征壁垒。其卓越的视觉保真度、跨视角几何一致性以及对下游策略学习的显著增益,为具身智能领域的仿真与生成模型研究提供了极具价值的新范式。未来,团队将继续探索结合在线4D占据预测技术,摆脱对离线数据的依赖,并引入更细粒度的全身关节动作表征,向着“超长视野(Long-horizon)复杂任务的实时闭环

具身基础模型应当具备可靠性、快速执行能力,以及在意外情境中自我恢复的能力。使用“精通”一词,特指可靠性、速度与即兴智能三者的结合。尽管可靠性与速度较易量化衡量,但即兴智能恰恰是此前机器人领域最为缺失的关键能力。

具身基础模型应当具备可靠性、快速执行能力,以及在意外情境中自我恢复的能力。使用“精通”一词,特指可靠性、速度与即兴智能三者的结合。尽管可靠性与速度较易量化衡量,但即兴智能恰恰是此前机器人领域最为缺失的关键能力。

InternData-A1 的出现,打破了 “VLA 模型预训练依赖真实数据” 的行业共识,其通过 “大规模、高保真、低成本” 的合成数据与模块化生成方案,为机器人通用化学习提供了全新路径。对于科研团队与产业界而言,该数据集的开源(含生成 pipeline)不仅降低了预训练数据获取门槛,更揭示了合成数据在机器人领域的巨大潜力,有望推动 VLA 模型向 “低成本、高泛化、可规模化” 方向快速发展。

同时,沿着真实数据金字塔,星海图领先于行业布局涵盖 UMI 数据与人类第一视角(Egocentric)数据的无本体数据方案布局,构筑起稳固的具身智能数据金字塔。目前,星海图的数据体系已深度赋能英伟达 EgoScale、蚂蚁灵波 Lingbot-VLA等全球顶级具身大模型,成为行业不可或缺的底层基础设施。








