
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在移动机器人开发中,让机器人“看见”环境并“知道”自己在哪,是所有高级功能(如导航、避障)的基础。这就涉及到。本文记录了我基于和YDLidar搭建 SLAM 系统的完整过程。从最底层的串口通信,到 TF 坐标变换树的构建,再到最终使用完成建图。这不仅仅是一份操作指南,更是一次对 ROS 2 核心概念(话题、TF、时间同步)的深度复盘。在 RViz2 中将 Fixed Frame 设置为map,添加
graph TDsubgraph Robot_Hardware [机器人硬件层]Encoder[编码器] --> |脉冲| ESP32Lidar[雷达] --> |串口数据| WiFi_Moduleendsubgraph Transport_Layer [传输层 WiFi]endsubgraph PC_Driver_Layer [PC 驱动层]endsubgraph ROS2_Logic_Laye
选用Miniforge(适用于ARM架构的Conda)作为环境管理器,以避免使用系统Python可能导致的依赖冲突。Conda可以为不同项目创建隔离的环境。重新打开终端后,命令提示符前出现(base),表示Conda环境已激活。创建一个独立的Python 3.8环境,安装PyTorch 1.10,用于运行TD3强化学习算法,并确保该环境能与已编译的ROS系统兼容。在安装提示中接受许可协议,使用默认
graph TDstart[开始] --> get_odom[接收 /odom 数据]start --> get_scan[接收 /scan 数据]get_odom --> predict[1. 预测: 根据里程计推算当前位姿]predict --> match[2. 扫描匹配: 将雷达数据与局部地图比对]match --> correct[3. 校正: 修正机器人的位姿估计]correct --
graph TDsubgraph Robot_Hardware [机器人硬件层]Encoder[编码器] --> |脉冲| ESP32Lidar[雷达] --> |串口数据| WiFi_Moduleendsubgraph Transport_Layer [传输层 WiFi]endsubgraph PC_Driver_Layer [PC 驱动层]endsubgraph ROS2_Logic_Laye
SLAM的本质:SLAM 就像人闭着眼睛走路摸墙画地图。底盘的作用如果人走路晃晃悠悠(电机控制不稳),地图就会画歪。如果人不知道自己迈了几步(里程计不准),地图就会断裂。本篇目标:抛弃昂贵的工控机,用几十块钱的ESP32单片机,通过Micro-ROS接入 ROS 2 生态,实现精准的PID闭环控制和里程计(Odometry)发布,为后续接入激光雷达做准备。当前状态:我们要到了一个能动、能听、知道自







