- 简介在这项工作中,我们介绍了一个专门用于估计密集图像对应关系的深度学习框架。我们的全卷积模型为图像生成密集的特征图,其中每个像素都与一个描述符相关联,可以在多个图像之间进行匹配。与以往的方法不同,我们的模型是在包括重要扭曲(如透视变化、光照变化、阴影和高光等)的合成数据上进行训练的。利用对比学习,我们的特征图对这些扭曲具有更高的不变性,从而实现了强大的匹配。值得注意的是,我们的方法消除了关键点检测器的需求,使其与许多现有的图像匹配技术有所区别。
- 图表
- 解决问题深度学习框架用于密集图像对应的估计
- 关键思路使用全卷积模型生成密集的特征映射,每个像素都与描述符相关联,可以在多个图像之间进行匹配。通过对比学习,特征映射具有更强的不变性,从而实现了鲁棒匹配。同时,该方法不需要关键点检测器,与许多现有的图像匹配技术不同。
- 其它亮点使用合成数据进行训练,包括透视变化、光照变化、阴影和高光等显著扭曲,从而实现对这些扭曲的更大不变性。实验表明,该方法在多个数据集上都取得了良好的性能。
- 相关研究包括:SIFT、SURF、ORB等传统的特征点检测方法,以及基于深度学习的图像匹配方法,如DeepMatching、SuperPoint、LF-Net等。
沙发等你来抢
去评论
评论
沙发等你来抢