- 简介大多数视觉SLAM系统在动态场景下不够稳健。那些处理场景中动态物体的系统通常依赖于基于深度学习的方法来检测和过滤这些物体。然而,这些方法无法处理未知的移动物体。本文介绍了Panoptic-SLAM,这是一个开源的视觉SLAM系统,即使在存在未知物体的情况下,也能在动态环境中保持稳健。它使用全景分割来在状态估计过程中过滤动态物体。Panoptic-SLAM基于ORB-SLAM3,这是一个用于静态环境的最先进的SLAM系统。我们使用真实世界的数据集进行了实现测试,并与文献中的几个最先进的系统进行了比较,包括DynaSLAM、DS-SLAM、SaD-SLAM、PVO和FusingPanoptic。例如,Panoptic-SLAM的平均精度比PVO高四倍,后者是最新的基于全景的视觉SLAM方法。此外,我们使用带有RGB-D相机的四足机器人进行了实验,以测试我们的方法在实际场景中的适用性。这些测试是通过运动捕捉系统创建的基准进行验证的。
- 图表
- 解决问题Panoptic-SLAM试图解决的问题是如何在动态环境下实现视觉SLAM系统的鲁棒性,特别是在存在未知移动物体的情况下。
- 关键思路Panoptic-SLAM使用全景分割技术来过滤动态物体,并在状态估计过程中实现对动态环境的鲁棒性。它是基于静态环境下的SLAM系统ORB-SLAM3的改进版本。
- 其它亮点论文使用真实数据集进行了测试,并与其他最新的基于深度学习的动态物体检测和过滤方法进行了比较,表明Panoptic-SLAM平均比PVO等最新的全景分割方法更准确。此外,论文还在四足机器人上使用RGB-D相机进行了实验,并提供了开源代码。
- 在这个领域中,最近的相关研究包括DynaSLAM、DS-SLAM、SaD-SLAM、PVO和FusingPanoptic等。
沙发等你来抢
去评论
评论
沙发等你来抢