
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文的主要作者来自北京智源人工智能研究院、香港科技大学、哈尔滨工业大学、上海交通大学、北京大学和悉尼大学。本文的第一作者为北京智源人工智能研究院的实习生李哲,主要研究方向为具身智能和3D数字人。共同一作是香港科技大学的硕士生朱泊安。本文的通讯作者为北京大学计算机学院研究员、助理教授仉尚航和北京智源研究院研究员迟程。

这一年,各大机器人公司密集进场,部署工业场景。但这一轮浪潮与此前的试点逻辑截然不同,它不再止步于展示技术可能性,而是将机器人真正嵌入核心生产流程,力求以高超的效率和准确性替代人力,成为常态化产线的有机组成。近日,银河通用机器人与全球汽车零部件领军企业、年营收超千亿的延锋国际达成战略合作,直指汽车饰件制造中传统自动化难以攻克的痛点场景,完成汽车核心零部件制造全流程的具身智能改造。

在此基础上,通过聚类区分不同类型的动作,并分别训练相应的专家控制模型;基于采集的轨迹序列,为每个专家模型训练对应的动作增量模型(delta model),以缓解仿真与现实之间的差距(sim-to-real gap);这一“基础—聚类—迭代—蒸馏”的流程,兼顾了动作多样性和现实适应性,为通用敏捷的人形机器人控制提供了一种新的训练范式。接着,将专家模型部署到真实机器人上执行以采集轨迹,并基于这些轨迹为

一、介绍缺陷检测被广泛使用于布匹瑕疵检测、工件表面质量检测、航空航天领域等。传统的算法对规则缺陷以及场景比较简单的场合,能够很好工作,但是对特征不明显的、形状多样、场景比较混乱的场合,则不再适用。近年来,基于深度学习的识别算法越来越成熟,许多公司开始尝试把深度学习算法应用到工业场合中。二、缺陷数据如下图所示,这里以布匹数据作为案例,常见的有以下三种缺陷,磨损、白点、多线。如何制作训练数...
现有的强化学习主要分为五种:通过价值选行为:Q-learning、Sarsa、Deep Q Network直接选行为:Policy Gradients想象环境并从中学习:Model Based RL回合更新:基础版的Policy Gradients、Monte-Carlo Learning单步更新:Q Learning、Sarsa、升级版Policy Gradients一、Q-Lear...
前言最近在看GAN相关的文章,经常提到KL散度这一概念,为了加深印象以及方便复习,特意写在博客上。KL散度用来做什么?KL散度的用途:比较两个概率分布的接近程度。在统计应用中,我们经常需要用一个简单的,近似的概率分布f∗f∗f^*来描述观察数据 DD或者另一个复杂的概率分布fff。这个时候,我们需要一个量来衡量我们选择的近似分布 f∗f∗f^*相比原分布fff究竟损失了多少信...
深度学习之艺术风格迁移近年来,由深度学习所引领的人工智能技术浪潮,开始越来越广泛地应用到社会各个领域。这其中,人工智能与艺术的交叉碰撞,不仅在相关的技术领域和艺术领域引起了高度关注。以相关技术为基础而开发的各种图像处理软件和滤镜应用更是一推出就立刻吸引了海量用户,风头一时无两。在这各种神奇的背后,最核心的就是基于深度学习的图像风格迁移(style transfer)。本chat就是介绍一...
Evo-RL 这次尝试给出了一个务实答案:不是只给一段视频、一个结果曲线,而是把从数据采集、价值建模、策略训练到部署纠错再训练的整条链路,放到可运行的工程系统中,并面向社区持续开放。

RL-VLA综述:强化学习推动视觉语言动作模型走向真实世界 Vision-Language-Action(VLA)模型虽具备零样本和跨任务泛化能力,但在真实开放场景中仍面临失败恢复和闭环纠错等挑战。本文综述了强化学习(RL)如何作为关键桥梁连接VLA预训练与真实部署,从架构设计、训练范式、真机部署和评估四个维度构建了完整技术图景。重点分析了RL-VLA的闭环优化能力、多样化奖励设计、世界模型构建,

机器人学长期以来一直是科学研究中的重要领域。早期的机器人主要依赖预编程的指令和人工设计的控制策略来完成任务分解与执行。这类方法通常应用于简单、重复性的任务,例如工厂流水线和物流分拣。近年来,人工智能的快速发展使研究者能够在图像、文本和点云等多模态数据中,利用深度学习的特征提取与轨迹预测能力。通过结合感知、检测、跟踪和定位等技术,研究者将机器人任务分解为多个阶段,以满足执行需求,从而推动了具身智能与








