
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
首先,本文是基于点云,并且直接处理点云数据的3D目标检测网络本文可以看做是对PointNet的一个改进。PointNet我们之前也聊到了。他最初是提取点的特征,然后通过对称函数(max pool)将所有的点特征进行聚合,得到全局点云特征,这就完成了特征提取部分的功能。但是在这个过程中,没有考虑到某些点与周围点之间的关系,没有提取局部的特征,这一点在CNN中大放异彩,因此也就限制了它的细粒度识别能力
这是一篇21年的综述,介绍了3D目标检测背景、传感器以及基于传感器的算法分类及其特点。
代码】【杂谈】Navicat导出数据库表设计文档具体说明。
本文的输入数据仅仅是单目图像,在方法上是融合了伪点云(Pseudo-LiDAR)的深度信息表示方法与Frustum PointNets的检测方法。乍一看文章和伪点云原论文一模一样,但是会更具体一点,也就是本文只关注单目图像,同时解决了一些伪点云存在的问题。作者提到了其他设备的一些弊端:深度相机能捕捉的范围很有限;双目相机工作的流程很麻烦,需要校准与同步;激光雷达就不用说了,很贵 哈哈哈哈哈。相比之
Fast R-CNN是对R-CNN和SPP-Net的改进,一方面借助SPP的思想,使得骨干网络只需要对原图做一次特征提取就好了,大大减少时间开销;另一方面将bbox的回归器和分类器都整合到了网络当中,方便了训练流程,也减少了特征存储的开销;还有一方面就是采用了新的训练策略,解决了SPP-Net中难以更新SPP模块之前的卷积层参数的问题。
Fast RCNN几乎已经是端到端的模型了,并且相较于RCNN速度上有了很大的提升,但是距离实时的检测还有一定距离,当前速度的瓶颈来自于候选框的生成,因为他是跑在CPU上的。所以本文就提出了一个Region Proposal Network(RPN),用网络生成候选框,并且与检测器的特征提取网络共享特征。另一方面,引入了anchor机制,解决多尺度检测的问题。
两台相机一左一右对统一目标进行拍摄(相机的高度相同),得到两张图像,这两张图像只有左右偏移,我们可以根据这个偏移得到深度信息(目标距离相机的远近)。那么关键就变成了找到两张图片中的匹配关系,只要有了匹配关系就能得到视差,基于视差就能用上面的公式计算深度了。采用上面的算法得到视差图,使用视差图得到深度图,基于深度图转换成点云。背后的原理是:距离越远,左右偏移越大,距离越近,左右偏移越小。下面是某一个
首先,本文是基于点云,并且将点云处理成体素的3D目标检测网络。PV-RCNN融合了点云特征提取中基于体素方法和基于点方法的思想,进一步提高检测的性能提出了一种voxel-to-keypoint的编码方法,该方法将一帧内的多尺度体素特征编码为一系列的关键点中。这些关键点不仅保留了准确的位置信息,还拥有丰富的全局信息,可以提高三维检测性能。提出了一种在proposal中使用的多尺度的RoI特征提取层。
KITTI数据集很大,包括了很多任务,使用的训练样本7481个,测试样本7518个OpenPCDet——环境配置和训练测试(升级系统、Nvidia驱动、cuda11.3、cudnn8.2)【KITTI】KITTI数据集简介(一) — 激光雷达数据。







