论文作者 | 戚张扬 王佳琦 吴虓杨 赵恒爽
编辑 | 计算机视觉CV
本文研究的自动驾驶领域中的多视图3D目标检测,用的是目前较为先进的基于鸟瞰图视角(Bird's-Eye-View (BEV))的范式。在鸟瞰图(BEV)的视角下,可以避免2D图片中的遮挡问题,并且可以和地图相结合,展开多种下游任务(如:车道线检测)。目前建立BEV的方法有自底向上的做法即由多视角图片及其深度信息构建视锥最终得到BEV。而更好的方法是自顶向下的,预先定义BEV空间初始化特征,在通过Transformer与每个图像特征进行交互,最终得到BEV特征。类似于BEVFormer。
在构建BEV的过程中,有两个关键的点:一个是如何从历史的BEV特征中获取信息,一个是如何使得BEV特征进行与多视角的图片进行交互。即从时间和空间的角度来得到丰富BEV特征的信息。之前的方法都是将BEV特征视作一个整体去进行对齐操作。这里存在一个问题,就是没有考虑到室外场景是稀疏的,并且其中的汽车等交通工具是在高速移动中的。经过Encoder得到的BEV特征,还需要经过Decoder得到最终的结果。这里的Decoder大多采用DETR的范式。这里的queries也是预先定义的,需要从BEV稀疏的特征中学习最终的目标检测结果。同样是忽略了移动中的前景物体的提示。总结下,现有的自顶向下基于Transformer鸟瞰图视角的多视角图片3D目标检测有如下问题:
这篇论文聚焦与从移动物体前景的角度来解决上述的三个问题。如图所示,与BEVFormer相比,我们进行了三点改进:
我们的整体结构如图2所示。
我们引入了一种名为“Object Aligned Temporal Fusion(目标对齐的时间融合)”的方法,旨在增强基于BEV(鸟瞰图)的目标检测器中的时间信息建模,以更好地处理复杂和动态的自动驾驶场景。如图3所示,方法涵盖了两个关键的时间融合步骤,分别是Ego-Motion(自我运动)时间融合和Object-Motion(物体运动)时间融合,从而能够更全面、更有效地捕捉时间信息。
对于Object-Motion(物体运动)时间融合,如图3右图所示。我们
总结一下:
在对时间的对齐之后,是在空间层面上完成BEV特征和2D图像特征的交互。这种交互同样基于Deformable DETR进行的。首先BEV特征作为queries,在3D空间中定义参考点,将它们投影到2D图像特征得到key和value。3D参考点的xy坐标是BEV query的覆盖区域中心,而z坐标是在一个全局高度范围内进行平均采样。(例如对于nuscenes数据集,这个高度范围为-3m到5m)
在经过Encoder之后的Encoded BEV特征。我们将使用Decoder解码。图4左侧为我们显示了传统的Decoder,按照deformable DETR的方式,将Queries分为内容和位置embeddings。这里内容和位置embeddings均是预先定义的。为了能让Encoder输出向Decoder传递位置提示,以增强位置信息,OCBEV的结构如图4右所示:
这里的实验baseline配置与主要结果中的配置不一样。我们的消融实验结果如下:
基于Query的BEV模式兼具BEV感知能力和端到端训练的优势。大多数3D BEV检测器忽视场景中的移动对象,只是全局地利用时间和空间信息。在本研究中,我们提出了一种新颖的面向前景物体的自顶向下基于查询的BEV检测器,即OCBEV。其中包括三个模块:Object Aligned Temporal Fusion(目标对齐的时间融合)、Object Focused Multi-View Sampling(物体集中的多视角采样)和Object Informed Query Enhancement(物体信息增强的查询),分别专注于实例级别的时间建模、空间利用和Decoder增强。我们的结果在nuScenes基准测试上展现了其强大能力,并且收敛速度更快,因为仅需要一半的训练迭代次数就可以达到可比较的性能。
举报类型(必选)
举报详情(选填)
0/200
沙发等你来抢
评论
沙发等你来抢