- 简介这项工作解决了计算机视觉中一个基础问题——检测二维局部特征时的亚像素精度挑战。尽管像SuperPoint和ALIKED这样的基于神经网络的方法带来了进步,但由于它们缺乏亚像素精度,这些现代方法在关键点定位精度方面仍落后于SIFT等经典方法。我们提出了一种新颖的网络,通过学习检测到的特征的偏移向量来增强任何检测器的亚像素精度,从而消除了设计专门的亚像素精度检测器的需要。这种优化直接最小化了测试时的评估指标,如相对姿态误差。通过在各种实际数据集上进行了大量测试,包括最近的LightGlue匹配器和最近邻匹配,我们的方法在准确性方面始终优于现有方法。此外,它只会在特定检测器的时间上增加约7毫秒。代码可在https://github.com/KimSinjeong/keypt2subpx上获得。
- 图表
- 解决问题论文旨在解决计算机视觉中检测2D局部特征的亚像素精度问题,即如何提高特征点的定位精度。
- 关键思路论文提出了一种新的网络结构,通过学习检测到的特征点的偏移向量来增强任何检测器的亚像素精度,从而消除了设计专门的亚像素精确检测器的需求。
- 其它亮点论文通过在不同的真实世界数据集上进行广泛的测试,证明了该方法在精度方面始终优于现有方法。此外,该方法只会增加约7毫秒的检测时间,并且提供了开源代码。
- 最近的相关研究包括SuperPoint、ALIKED和SIFT等方法。
沙发等你来抢
去评论
评论
沙发等你来抢