logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

gazebo 中通过sac 训练机械臂进行轨迹规划

这是将仿真环境与SAC算法对接的关键。要素定义方法(参考案例状态空间State包含三个部分:1.关节状态:当前机械臂各个关节的角度(θ)和速度(v)2.目标位置:深度相机获取的目标螺栓的欧式坐标(p)3.终点坐标:最终期望到达的目标坐标(t)动作空间Action6轴机械臂的连续控制信号。通常为6个关节的目标角度增量或扭矩,记为奖励函数Reward奖励函数是引导智能体学习的关键。一个有效的设计思路是

#人工智能#机器人#算法 +1
OLOv11 + 深度相机的方案实现高精度3D定位

YOLOv11 + 深度相机的方案提供了一个开箱即用的高精度3D定位框架。技术成熟:从模型导出、硬件驱动到坐标计算,都有完整的开源方案支持。精度高:在近距离(0.5m内)可达到毫米级定位误差。速度快:优化后可轻松达到实时(30+ FPS),甚至在高端GPU上超过100 FPS。

#人工智能#机器人#算法
MPC 与PPO SAC 的关系

总而言之,MPC、PPO和SAC的关系已经超越了简单的竞争,走向了深度互补。如果你的任务模型精确、约束明确、安全性要求极高(如工业生产线上的重复作业),基于模型的MPC是稳妥可靠的选择。如果你的任务环境复杂、动态难以建模,但允许大量试错(如游戏AI、仿真环境下的策略学习),无模型的PPO或SAC是强大的工具。其中,SAC在样本效率和随机环境中可能更具优势。如果你的任务既需要保证安全,又需要适应复杂

#人工智能#深度学习#计算机视觉
MPC 进行轨迹规划

通过MPC(模型预测控制)实现机械臂的路径规划,核心思想是利用机械臂的动力学模型,在一个内在线求解一个考虑多种约束的优化问题,从而生成最优的关节运动轨迹。与传统的几何路径规划方法不同,MPC直接考虑了系统的动态特性和物理限制,能生成且的运动。我将从核心原理、关键技术路线和典型应用案例三个方面,为你系统地介绍如何通过MPC实现机械臂路径规划。

#人工智能#机器人#算法 +1
PPO 在ROS2 中训练与推理

核心流程:构建 ROS 2 Gym 环境(封装状态 / 动作 / 奖励)→ 初始化 PPO 模型 → 与机器人环境交互训练 → 保存模型并推理部署;关键难点:合理设计奖励函数、确保 ROS 2 状态 / 动作的实时性、准确的运动学求解;落地建议:先在仿真环境(如 Gazebo)中完成训练,再迁移到真实机器人,逐步调优奖励函数和超参数。按此流程,你可以快速在 ROS 2 中实现机械臂的 PPO 训练

#人工智能#机器人#算法
PPO 在ROS2 中训练与推理

核心流程:构建 ROS 2 Gym 环境(封装状态 / 动作 / 奖励)→ 初始化 PPO 模型 → 与机器人环境交互训练 → 保存模型并推理部署;关键难点:合理设计奖励函数、确保 ROS 2 状态 / 动作的实时性、准确的运动学求解;落地建议:先在仿真环境(如 Gazebo)中完成训练,再迁移到真实机器人,逐步调优奖励函数和超参数。按此流程,你可以快速在 ROS 2 中实现机械臂的 PPO 训练

#人工智能#机器人#算法
FPGA AI 结合清单

AMD(Xilinx)适合模型推理的 FPGA/ACAP,核心是Versal AI 系列(带 AIE-ML)、Zynq UltraScale+(带 DPU)、Alveo 加速卡、Virtex UltraScale+,按场景分档推荐如下(2026 年最新)。适合数据中心、900GB/s CXL 全互联、大模型 / 多模型并发、低延迟推理。适合边缘 / 嵌入式、中小模型、低功耗、快速部署。适合服务器级

#fpga开发
笛卡尔路径规划

两点之间插值的算法有很多,简单起见,我们就采用直线插补,因为这里小鱼是从当前点向下运动30cm,所以姿态是不存在变化的,姿态的变化也有相应的插值算法,比如球面线性插值(将ompl支持的算法常用的都测试了下,可能因为参数调的不够好,最终效果都不太满意,关于如何调整moveit所使用的ompl算法,再搞一篇文章来讲。等,虽然都可以进行路径搜索,但并不能保证最终搜索出来的路径是我们想要的那种,比如这里小

文章图片
#机器人#算法
PPO算法:一种先进的强化学习策略

PPO(Proximal Policy Optimization)是一种增强学习算法,主要应用于解决连续控制任务。PPO算法在2017年由OpenAI提出,旨在解决传统策略梯度方法在连续控制任务中面临的挑战。PPO算法通过引入一个近似目标函数和重要性采样,提高了策略更新的稳定性和效率。PPO算法是一种有效的增强学习算法,适用于解决连续控制任务。通过引入近似目标函数和重要性采样,PPO算法减小了策略

#算法
深入理解Gym:强化学习框架的基础功能

环境可以看作是一个黑盒子,接收智能体的动作作为输入,然后根据一定的规则返回新的状态和奖励信息。Gym中提供了各种预定义的环境,如经典的CartPole、MountainCar等任务,以及一些现代的、复杂的任务如Fetch、Humanoid等。在Gym中,动作是由智能体根据当前的环境状态选择的输入,而观察则是智能体从环境中获得的信息。这些空间是环境的一部分,定义了智能体与环境交互的方式。强化学习在近

#机器学习
    共 40 条
  • 1
  • 2
  • 3
  • 4
  • 请选择