- 简介这篇论文讨论了自动驾驶中基于视觉的定位技术,当没有预先构建的三维地图时,通常采用基于视觉的同时定位与地图构建技术(vSLAM)。由于误差的累积,vSLAM通常会出现长期漂移。因此,本文提出了一种框架,通过将vSLAM与基于深度学习的地面到卫星(G2S)图像配准方法相结合,提高定位精度。在该框架中,设计了一种从粗到细的方法(空间相关性边界检查和视觉里程一致性检查),以选择有效的G2S预测值。然后,通过解决一个缩放的姿态图问题,将所选预测值与SLAM测量值融合。为了进一步提高定位精度,我们提供了一个迭代轨迹融合管道。该框架在两个著名的自动驾驶数据集上进行了评估,结果表明在车辆定位方面具有准确性和鲁棒性。
-
- 图表
- 解决问题论文旨在提高自主驾驶中的视觉同时定位与地图构建技术(vSLAM)的定位精度,通过与基于深度学习的地面到卫星(G2S)图像配准方法相结合,解决vSLAM长期漂移的问题。
- 关键思路论文提出了一种通过将G2S预测结果与vSLAM测量结果进行融合的方法,通过解决缩放的姿态图问题来提高定位精度。同时,还提出了迭代轨迹融合流程来进一步提高精度。
- 其它亮点论文在两个著名的自主驾驶数据集上进行了评估,结果表明该方法在车辆定位方面具有精度和鲁棒性。此外,论文还开源了代码,为后续研究提供了参考。
- 近期相关研究包括:Visual SLAM系统、基于深度学习的图像配准方法、以及基于视觉的自主导航方法等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流