logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Ubuntu 22.04,Isaac Sim 5.1.0 + Isaac Lab 2.3.0 Conda 环境安装指南

Isaac Sim 5.1.0 支持通过 pip 安装,这是最简单的方法。: 如果你想贡献代码,建议先 fork 仓库,然后克隆你的 fork。运行训练ant机器人的代码,能开始训练,则说明安装成功。: 你可以使用任何环境名称,但本文档统一使用。: 5-15 分钟(取决于网络速度)

#ubuntu#conda#linux
强化学习人形机器人奖励函数分析

PPO (Proximal Policy Optimization) 是一种 Actor-Critic 架构算法。奖励函数是整个学习过程的指挥棒。学习预测未来的累积回报(Return)。用于处理物理限制的软约束,形式通常为单边损失(Hinge Loss)。,作为 Cost/Penalty 使用,用于约束能量和保持稳定。以下是代码中各个奖励项的数学表达及其物理含义分析。形式,旨在最大化机器人对指令的

#机器人#算法
Waypoint 在具身智能导航中的应用研究 ——以 NoMaD 为例的连续环境导航技术分析

在 Embodied AI(具身智能)导航任务中,WayPoint(航点)是指智能体(Agent)在三维空间中可以到达的、用于辅助路径规划的离散位置点。WayPoint 是连接“高层语义规划”与“底层机器人运动”的关键桥梁。并不是抛弃离散环境的思想,而是将离散环境中的“图结构(Graph)”内化为智能体的一种感知能力。通过深度学习网络(Predictor)实时利用 RGB-D 信息预测可达点,从而

#学习#人工智能
Waypoint 在具身智能导航中的应用研究 ——以 NoMaD 为例的连续环境导航技术分析

在 Embodied AI(具身智能)导航任务中,WayPoint(航点)是指智能体(Agent)在三维空间中可以到达的、用于辅助路径规划的离散位置点。WayPoint 是连接“高层语义规划”与“底层机器人运动”的关键桥梁。并不是抛弃离散环境的思想,而是将离散环境中的“图结构(Graph)”内化为智能体的一种感知能力。通过深度学习网络(Predictor)实时利用 RGB-D 信息预测可达点,从而

#学习#人工智能
Waypoint 在具身智能导航中的应用研究 ——以 NoMaD 为例的连续环境导航技术分析

在 Embodied AI(具身智能)导航任务中,WayPoint(航点)是指智能体(Agent)在三维空间中可以到达的、用于辅助路径规划的离散位置点。WayPoint 是连接“高层语义规划”与“底层机器人运动”的关键桥梁。并不是抛弃离散环境的思想,而是将离散环境中的“图结构(Graph)”内化为智能体的一种感知能力。通过深度学习网络(Predictor)实时利用 RGB-D 信息预测可达点,从而

#学习#人工智能
强化学习人形机器人奖励函数分析

PPO (Proximal Policy Optimization) 是一种 Actor-Critic 架构算法。奖励函数是整个学习过程的指挥棒。学习预测未来的累积回报(Return)。用于处理物理限制的软约束,形式通常为单边损失(Hinge Loss)。,作为 Cost/Penalty 使用,用于约束能量和保持稳定。以下是代码中各个奖励项的数学表达及其物理含义分析。形式,旨在最大化机器人对指令的

#机器人#算法
PPO-clip算法在Gymnasium的Pendulum环境实现

我在gymnasium的pendulum环境上实现了PPO-clip算法,并通过调节超参数来探索超参数对训练过程与训练结果的作用。Pendulum环境:https://gymnasium.farama.org/environments/classic_control/pendulum/PPO-clip:https://hrl.boyuai.com/chapter/2/ppo%E7%AE%97%E6

#算法#机器人#人工智能
Tokenization的演进:从NLP基石到多模态AI的“通用翻译器”

这是Tokenization的起源,专注于处理“文本”。在经典的NLP中,Tokenization(也常被称为“分词”)是将连续、非结构化的文本流,切分成一系列离散的、有意义的基本单元(Tokens)的过程。将自然语言转换为模型可以理解和处理的最小单元。现代大模型(如GPT、BERT)主要使用子词(Subword)Tokenization(如 BPE、WordPiece 算法)。介于“词”和“字符

#人工智能#自然语言处理#开发语言 +1
Tokenization的演进:从NLP基石到多模态AI的“通用翻译器”

这是Tokenization的起源,专注于处理“文本”。在经典的NLP中,Tokenization(也常被称为“分词”)是将连续、非结构化的文本流,切分成一系列离散的、有意义的基本单元(Tokens)的过程。将自然语言转换为模型可以理解和处理的最小单元。现代大模型(如GPT、BERT)主要使用子词(Subword)Tokenization(如 BPE、WordPiece 算法)。介于“词”和“字符

#人工智能#自然语言处理#开发语言 +1
Ubuntu20.04系统安装IsaacSim4.5与IsaacLab环境

今天用自己的Ubuntu20.04系统安装最新更新的IsaacSim 4.5 与 最新版的IsaacLab遇到了问题,成功解决。IsaacSim现在支持,我用中文整理了自己的安装过程。

文章图片
到底了