
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1、为什么要做这个研究(理论走向和目前缺陷) ?多传感器融合向来不是一个简单的事,融合方式设计的不好不但可能不会信息互补,还有可能各传感器的缺点都继承下来,效果更差。2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?做点云和图像的融合。点云利用的是BEV特征和图像特征借助3d点这个中间媒介进行关联,然后把关联上的图像像素点特征加到BEV特征上去,这是稀疏point-wise融合,在特征提取
1、为什么要做这个研究(理论走向和目前缺陷) ?基于体素的方法会有信息损失,基于视锥的方法太过依赖2D检测的结果,且不太好应对遮挡问题。2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?提取利用原始点云来做3D框回归的2阶段网络。第一阶段中,首先用pointnet++对每个3D点都生成一个特征向量,然后对每个3D点做前背景分类,同时基于bin的方式回归一个3D候选框。前景点组成的所有3D候
1、为什么要做这个研究(理论走向和目前缺陷) ?这时的基于3D CNN来做的3D目标检测体素化之后全都是手工设计特征表达,即体素网格中的点一般选取最高点z值、网格中数目等作为该体素网格表达,手工设计的特征表达往往有各种局限,没办法发挥数据本身的潜力。2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?VoxelNet是第一个采用学习的方式(pointnet)来进行体素网格中特征表达的网络,有
1、为什么要做这个研究(理论走向和目前缺陷) ?有anchor的方法往往需要nms后处理,无法端到端的训练。无anchor的方法,往往也无法避免nms,且往往需要做非常复杂的关键点匹配(如cornernet、extremnet)。2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?提出用关键点预测的方法(即预测热图)重新建模目标检测。将检测目标视为其边界框的中心点,根据热图确定中心点的问题,
以后工作要做自动驾驶环境感知了,从今天开始更新3D目标检测相关的论文综述,刚把爹!摘要:本文提出MV3D,能够融合LIDAR和RGB图像信息以预测有向3D边界框。MV3D将点云用多视角(multi-view)表征,模型包括两个子网络,一个子网络基于点云数据的鸟瞰图生成3D候选区,另外一个子网络用于多视角特征的深度融合(deep fusion)。1、引言本文的关注重点在用如何充分利用雷达和图像数据提
1、为什么要做这个研究(理论走向和目前缺陷) ?基于anchor的检测器,对anchor的设计要求很麻烦,训练过程还有很多跟Anchor相关的计算比如正负例anchor判断时的iou计算。故考虑去除anchor,目前anchor free的方法典型如yolov1,由于其只考虑目标中心位置进行框回归,召回率很低,还有就是CornerNet,基于关键点检测的方法,但是在配对关键点时很麻烦。2、他们怎么
1、为什么要做这个研究(理论走向和目前缺陷) ?3D跟踪往往都太慢了,能否用传统方法组合实现比较好的结果。2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?没啥新东西,就是3D卡尔曼滤波(匀速运动模型)+匈牙利匹配。开发了一个3Dmot评估系统,并提出3个新的3D mot评估指标sAMOTA,AMOTA,AMOTP。3、发现了什么(总结结果,补充和理论的关系)?KITTI上达到207.4F
1、为什么要做这个研究(理论走向和目前缺陷) ?做3D目标检测的大部分都是要面向自动驾驶的,这论文找了个理由说是“通用”,不限于数据集比如lidar-image,或者rgb-d,感觉很牵强。2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?不太清楚这论文出来时F-PointNet出来没,感觉都是一个风格的,但是这个论文在预测3D框时同时融合了图像特征和点云特征,融合方法就是简单的conca
1、为什么要做这个研究(理论走向和目前缺陷) ?2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?PointRCNN的主干网络用pointnet++提取点级特征,本文方法改为稀疏卷积版的U-net提取体素特征。比较有新意的就是在第一阶段对每个体素特征做部件位置预测,然后和原始提取的体素分割结果以及体素特征连接在一块做3D候选框的精细回归。3、发现了什么(总结结果,补充和理论的关系)?论文写
1、 为什么要做这个研究(理论走向和目前缺陷) ?之前的3D目标检测都不用高精地图,而是直接基于感知设备获得的数据做感知,高精地图一般只用于规划,白白浪费了这么简单易得的提升检测效果的方法。2、 他们怎么做这个研究 (方法,尤其是与之前不同之处) ?还是将点云进行体素化分成3D网格(占有网格,即网格中有点记为1,无点记为0),但是现有点云减去了地图中的地面高度信息,以实现将有坡度的地面拉直。同时增