
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
目录写在前面论文解析代码注释exploration_with_graph_planner.cppgraph_planner.cppdrrtp_node.cpp写在前面这篇论文是CMU发表在IROS2021上的工作,并随着其整套开源工作一起发布出来。作者是哈工大的Hongbiao Zhu博士,主页http://www.hongbiaoz.com/论文地址:http://www.hongbiaoz.c
Turtlebot3的github地址是https://github.com/ROBOTIS-GIT/turtlebot3,其中激光雷达默认的最远测距是3.5m。当把3.5m修改为3.5m以上的数时,前方的激光发射会存在问题,如下图所示。总之会有许多测距的异常值,大概在0.1~0.2左右。(请无视我小车和车轮的颜色,这是我之后自己改过的,在这里我用的小车的型号是waffle)事先声明,这个问题应该
第二次翻看《视觉SLAM十四讲》,发现第一次看过的都忘记了,认真分析了一下,我认为是第一次学习没有弄清楚整体的脉络。因此这次做一个小小的总结,希望不要再过几天又忘掉。前面的内容就没有总结的意义了,因为是最简单的,真正进入SLAM,应该是从这章的内容开始。首先,旋转矩阵是一个正交矩阵,它与自己的转置的乘积是单位矩阵。另外它还是关于时间的函数。每次对R(t)求导,相当于将其左乘一个Φ(t)^,...
相机模型这节的内容是最最基础重要的内容。再次回顾依然有所收获。但这一章的内容其实并不多。但是容易混淆。1.一共涉及到的坐标系有四个:第一,世界坐标系;第二,相机坐标系;第三,归一化相机坐标系;第四,像素坐标系。世界坐标系意如其名,不多解释;而相机坐标系是依据相机的光心(也就是小孔成像的那个小孔)建立起的坐标系。而归一化相机坐标系,是相机坐标系下的(x,y,z)三个...
这部分的内容,第一次看觉得很难看懂,不知所云;最近第二次看,可以看明白了。本着“先赶理论,后赶代码,借着代码复习C++”的原则,现在先不去学习代码的内容。这一章的内容,应该先从宏观上看。第一次看的时候,就是陷入了细节,忘记了每时每刻主要是在做什么,因此看完之后不能融会贯通。说明学习的时候,把握整体的脉络比追究细节更重要(毕竟不是考试,平时不用闭卷)。后者可以临时抱佛脚,现用现查,而前者不行。我..
学习到这里为止,SLAM14讲的主要知识就不多了。这章的内容书里只是做了一个简述,因此读起来也没有什么难度。但是初学者不仔细看就很容易犯糊涂。回环检测的意义:1.给后端的Pose Graph提供更多有效的数据(即走到同一个位置附近了),否则后端优化可能把前端的误差累积起来,出现漂移问题。2.跟踪算法如果跟丢了,利用回环检测进行重定位。回环检测的实现方式:1.朴素思路:(1)暴力...
realsense相机通过ros启动,命令为:roslaunch realsense2_camera rs_camera.launch但是如果想在rviz中查看pointcloud2格式的点云,需要加一个这个参数:roslaunch realsense2_camera rs_camera.launch filters:=pointcloud这种情况下,既可以生成图片topic,也可以生成point
当python2安装tensorflow的时候,安装完成后,进行测试:import tensorflow as tf可能会提示:Traceback (most recent call last):File "<stdin>", line 1, in <module>File "/home/zhaokai/.local/lib/python2.7/site-packages/
最近在服务器上跑ROS仿真导航代码的时候,发现和别人的程序之间会存在冲突问题。我开着Gazebo仿真跑我的训练,当别人以他自己的账户登陆服务器的时候,roslaunch他自己的程序,会导致他打不开gazebo,而我开的Gazebo程序会突然报错。难道服务器上只能让一个人用来跑仿真代码?这还叫什么服务器呢?于是我在docker内部配了同样的环境,并且用xhost+ 远程显示出来。但是很不幸,dock
写在前面把3D雷达和相机进行外参标定使用的方法我们采取LiDAR-Camera Calibration using 3D-3D Point correspondences 方法。这里我使用的相机为realsense D435i 以及Velodyne16雷达。其实具体的细节github上面已经写过了,但是对于没有跑过的人来说,搞定这个东西还是有一定麻烦的。因此把细节记录在这里。希望涉及汇总方面的朋友