- 简介本文讨论了时间信息在鸟瞰驾驶场景理解中的重要作用,可以缓解视觉信息稀疏性。然而,不加区分的时间融合方法会在构建矢量化高清地图时导致特征冗余的障碍。本文重新审视了矢量化高清地图的时间融合,重点关注时间实例一致性和时间地图一致性学习。为了改善单帧地图中实例的表示,我们引入了一种新方法DTCLMapper。该方法使用双流时间一致性学习模块将实例嵌入与几何地图相结合。在实例嵌入组件中,我们的方法集成了时间实例一致性学习(ICL),确保从矢量点和汇聚自点的实例特征的一致性。采用矢量化点预选模块来增强每个实例的矢量点回归效率。然后,从矢量化点预选模块获得的汇聚实例特征在对比学习中得到落实的时间一致性,其中根据位置和语义信息选择正负样本。几何映射组件引入了自监督学习设计的地图一致性学习(MCL)。MCL通过集中注意力于实例的全局位置和分布约束来增强我们的一致性学习方法的泛化能力。在公认的基准测试中进行了广泛的实验,结果表明,所提出的DTCLMapper在矢量化映射任务中取得了最先进的性能,在nuScenes和Argoverse数据集上分别达到了61.9%和65.1%的mAP分数。源代码将公开在https://github.com/lynn-yu/DTCLMapper。
-
- 图表
- 解决问题本论文旨在解决Bird's-Eye-View(BEV)驾驶场景理解中的时间信息问题,即如何在构建矢量化高清地图时避免特征冗余。
- 关键思路论文提出了一种新的方法DTCLMapper,该方法使用双流时间一致性学习模块来结合实例嵌入和几何地图,以提高单帧地图中实例的表示。
- 其它亮点DTCLMapper在nuScenes和Argoverse数据集上实现了最先进的性能,达到了61.9%和65.1%的mAP分数。该论文还开源了代码。
- 最近的相关研究包括:《End-to-End Learning of Driving Models from Large-Scale Video Datasets》、《Temporal Cycle-Consistency Learning》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流