
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
数据集介绍 InternScenes 是上海人工智能实验室发布的大规模、可模拟室内场景数据集,论文收录于 NeurIPS 2025。具身人工智能的发展高度依赖于具有场景多样性和逼真布局的大规模、可模拟3D场景数据集。然而,现有数据集通常存在以下不足:数据规模或多样性有限、布局经过"净化"处理导致小物体缺失,以及严重的物体碰撞问题。 为解决上述问题,InternScenes 整合
https://www.pi.website/blog/openpi?utm_source=chatgpt.com "Open Sourcing π0" π0 及其开源工程 OpenPI 来自 Physical Intelligence。官方 OpenPI 博客说明,openpi 仓库提供了 π0 预训练模型的代码和权重、若干在 ALOHA 和 D
https://octo-models.github.io/?utm_source=chatgpt.com "Octo: An Open-Source Generalist Robot Policy" Octo 是一个开源 generalist robotic policy,采用 transformer-based diffusion policy 架构,
[1]: https://openvla.github.io/?utm_source=chatgpt.com "OpenVLA: An Open-Source Vision-Language-Action Model" OpenVLA 是目前最有代表性的开源 Vision-Language-Action 模型之一,可以看作是机器人领域对“大模型 + 视觉 + 动作控制
数据集介绍 AgiBot World 2026 数据集延续了 AgiBot World 开创的高质量数据标准,基于海量真实场景构建,系统性地覆盖了具身智能的核心研究方向,旨在赋能下一代具身智能体的落地应用。 该数据集的所有数据100% 采集自真实环境,涵盖商业空间、家庭及其他通用场景。数据采集基于 精灵 G2(AgiBot G2) 机器人平台,采用自由采集模式,为开发者提供结构清晰、标注精准的高
数据集介绍 DROID (2024) 数据集由斯坦福大学联合全球13家顶尖研究机构共同打造,是一个大规模、高多样性的真实世界机器人操作数据集。该数据集旨在解决现有机器人操作策略因训练数据场景和任务多样性有限而导致的泛化能力不足问题,通过分布式采集策略收集了横跨三大洲的真实环境数据。 任务时序长度:以短程任务为主,单次示范持续数秒,每个轨迹平均包含多步连续操作。 动作可执行性:基于VR遥操作进行低
Open X-Embodiment 数据集介绍 Open X-Embodiment (2023) 数据集由 Google DeepMind 联合全球 21 家顶尖学术机构共同打造,是迄今为止规模最大的开源真实机器人操作数据集。该数据集旨在打破传统机器人学习中“一个任务、一个模型、一个机器人”的局限,通过整合来自 22 种不同机器人平台的海量数据,探索训练跨形态(Cross-Embod
活动详情 当 AI 从 “云端” 走向 “具身”,机器人、智能装备等产业正迎来 “大脑 - 小脑 - 感知 - 执行” 全链路重构:大模型驱动的协同架构重塑决策逻辑,灵巧手、触觉传感器等硬件突破定义交互边界,而关节模组、仿生驱动等核心部件,更是决定具身智能从实验室走向量产的关键支点。当前行业既面临 “卡脖子” 技术攻坚的压力,也迎来国产化替代、生态协同的机遇窗口,全球竞争与产业升级的双重浪潮,正推

时间 06/11 周四 14:00 ~ 16:30 地点 浙江杭州浙江大学金华研究院浦江科创中心(余杭区文一西路1218号30幢5单元) 活动详情 一、活动时间与地点 活动时间:2026年6月11日(周四) 活动地点:浙江大学金华研究院浦江科创中心(余杭区文一西路1218号30幢5单元) 二、组织单位 主办单位:浦江县科技局、浙江大学金华研究院浦江科创中心、浦江县国投集团 承办单位:侨创未来人才科

时间 05/20 周三 13:30 ~ 18:30 地点 浙江杭州中国智谷富春园区A2三楼国际会议中心








