
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
[ERROR] [1618811104.099891119]: PluginlibFactory: The plugin for class ‘jsk_rviz_plugin/BoundingBoxArray’ failed to load.Error: Failed to load library /opt/ros/kinetic/lib//libjsk_rviz_plugins.so. Mak
深度学习中归一化的方法汇总
视觉SLAM十四讲第四讲笔记这一讲主要是要理解什么是 李群,李代数。 SO(3), SE(3)与对应李代数的表示方式。理解什么是BCH和 BCH近似的意义。学会在李代数上的 扰动模型。上一讲中,已经了解到了旋转平移的表示方法,但是在SLAM中,除了表示之外,我们还需要进行估计和优化。因为在SLAM中位姿是未知的,而我们需要解决什么样的相机位姿最符合当前观测数据这样的问题。 一种典型的方式是把它构建
视觉SLAM十四讲第十二讲笔记这一讲关注回环检测。我们知道SLAM主体(前端、后端)主要的目的在于估计相机的运动,而回环检测模块,是用于构建全局一致的轨迹和地图。举个例子:因为前端给出相邻帧之间的估计,很难做到消除积累的误差。但是,回环检测模块,能够给出除了相邻帧之外的,一些时隔更加久远的约束:例如x1−x100x_1 - x_{100}x1−x100之间的位姿变换。也就是说我们察觉到相机经过
PVTv2: Improved Baselines with Pyramid Vision TransformerPVTv2论文链接: https://arxiv.org/abs/2106.13797一、 Problem StatementPVTv1 有三个缺点:把图片当成是non-overlapping patches的序列,一定程度上丢失了图像的局部联系。PVTv1的position enco
多传感器融合之信息融合一、多传感器融合的优点冗余性:多个传感器数据对目标的描述表示是相同的(如激光雷达检测的目标信息和摄像头目标信息大体一致,允许有一定的属性误差);互补性:由于每个传感器的探测范围和探测属性不同,传感器之间的目标属性可以相互补充( 如前方障碍物的颜色信息, 激光雷达识别不出来);合作性:不同传感器在处理信息时会对其他信息有所依赖(如相机在建立位姿关系时,需要依赖IMU的数据);信
FaPN: Feature-aligned Pyramid Network for Dense Image PredictionFaPNICCV2021论文链接: https://arxiv.org/abs/2108.07058一、 Problem Statement尤其对于dense prediction任务来说,对于目标定位需要丰富的空间细节和对于分类来说需要较好的语义信息。 如何有效地生成不
KITTI格式的3D目标框标注在得到图像数据,激光雷达数据,标定数据之后,需要进行3D目标框标注。本文采用的标注工具采用的是:SUSTechPOINTS。这个工具是2020年IEEE收录的,是一个比较好的开源项目,可以使得激光雷达和图像数据联合标注,感谢这个工作的贡献者。标注分为下列两个步骤:安装SUSTechPOINTS导入数据标注结果一、安装SUSTechPOINTS根据官方安装方式即可。二、
RANSAC平面拟合理论和相关PCL源码学习笔记







