A Game of Bundle Adjustment -- Learning Efficient Convergence

解决问题:本篇论文旨在解决Bundle Adjustment(束调整)在实时应用中计算成本高的问题。传统的Bundle Adjustment方法使用Levenberg-Marquardt算法在每次迭代中启发式地选择阻尼因子,需要多次迭代才能达到收敛,计算成本高。本文提出了一种基于强化学习的方法,通过训练一个智能体来选择阻尼因子,从而加速Bundle Adjustment的收敛过程。

关键思路:本文的关键思路是将Bundle Adjustment问题视为一个游戏,并将其制定为一个强化学习任务。通过训练一个智能体来选择阻尼因子,以实现更快的收敛。相较于传统方法,本文的思路在于从整体上考虑Bundle Adjustment问题,并使用强化学习方法进行优化。

其他亮点:本文的实验结果表明,使用强化学习方法可以显著减少达到Bundle Adjustment收敛所需的迭代次数,且适用于合成和实际场景。此外,本文的方法可以与其他Bundle Adjustment加速方法相结合,进一步提高计算效率。然而,本文并未提供开源代码。

相关研究:最近的相关研究包括:

  • "Real-time bundle adjustment with local parameterizations" by Konolige et al. from Google Research
  • "Bundle Adjustment with the Trace Norm Regularizer: A Linearly Convergent Algorithm" by Liu et al. from Tsinghua University
  • "Bundle Adjustment on the Manifold of Dual Quaternions" by Zhang et al. from Zhejiang University.

论文摘要:本文的主题是“一种捆绑调整的游戏——学习高效收敛”。捆绑调整是解决定位和制图的常见方法。这是一个迭代过程,其中使用两种优化方法加权求解非线性方程组,并通过阻尼因子进行阻尼。在传统方法中,后者在每次迭代中由Levenberg-Marquardt算法启发式选择。这可能需要许多迭代,使过程在实时应用中具有计算上的昂贵性,可能会有害。我们建议将这种启发式替换为将问题作为游戏以整体的方式来看待,并将其制定为强化学习任务。我们设置了一个环境来解决非线性方程组,并训练一个代理人以学习的方式选择阻尼因子。我们证明了我们的方法显着减少了达到捆绑调整收敛所需的迭代次数,无论是在合成还是实际场景中。我们展示了这种减少有益于传统方法,并且可以与其他捆绑调整加速方法集成。

内容中包含的图片若涉及版权问题,请及时与我们联系删除