- 简介视觉里程计(VO)对于下游移动机器人和增强/虚拟现实任务至关重要。尽管最近取得了一些进展,但现有的VO方法仍然依赖于启发式设计选择,需要人类专家进行数周的超参数调整,从而阻碍了泛化性和鲁棒性。我们通过将VO重新构建为一个顺序决策任务,并应用强化学习(RL)来动态地适应VO过程来解决这些挑战。我们的方法引入了一个神经网络,在VO管道内作为代理运行,根据实时条件做出关键帧和网格大小选择等决策。我们的方法通过基于姿态误差、运行时间和其他指标的奖励函数来指导系统,最小化对启发式选择的依赖。我们的RL框架将VO系统和图像序列视为一个环境,代理从关键点、地图统计和先前的姿态中接收观测值。使用经典VO方法和公共基准测试的实验结果表明,我们的RL增强VO方法在准确性和鲁棒性方面都有所提高,验证了我们的方法在不同场景下的泛化能力。我们认为这种范式转变通过消除启发式的时间密集型参数调整,推进了VO技术的发展。
- 图表
- 解决问题解决问题:本论文旨在通过强化学习的方法,将视觉里程计(VO)作为一个序列决策任务来解决现有VO方法中需要进行大量超参数调整的问题,以提高其泛化性和鲁棒性。
- 关键思路关键思路:本论文的关键思路是将一个神经网络作为VO流程中的一个代理,根据实时情况进行关键帧和网格大小的选择,并使用基于姿态误差、运行时间和其他指标的奖励函数来指导系统,从而最小化对启发式选择的依赖。
- 其它亮点其他亮点:论文将VO系统和图像序列视为一个环境,代理从关键点、地图统计信息和先前的姿态中接收观测值。实验结果表明,与传统VO方法和公共基准相比,本论文的强化学习增强的VO方法在准确性和鲁棒性方面均有所提高,验证了其对不同场景的泛化能力。值得关注的是,论文使用了公开数据集,并开源了代码。
- 相关研究:最近的相关研究包括《End-to-End Learning of Geometry and Context for Deep Stereo Regression》和《DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks》。
沙发等你来抢
去评论
评论
沙发等你来抢