论文标题:COTR: Correspondence Transformer for Matching Across Images 论文链接:https://arxiv.org/abs/2103.14167 作者单位:不列颠哥伦比亚大学 & 谷歌大脑 & 多伦多大学

表现SOTA!性能优于GLU-Net、DGC-Net等网络,代码即将开源!

我们提出了一个基于深度神经网络的图像中寻找对应关系的新颖框架,该神经网络在给定两个图像和其中一个查询点的情况下,在另一个图像中找到其对应关系。通过这样做,可以选择仅查询感兴趣的点并检索稀疏的对应关系,或者查询图像中的所有点并获得密集的映射。重要的是,为了捕获局部和全局先验,并使用在先验之间最相关的模型,使我们的模型在图像区域之间建立联系,我们使用Transformer来实现我们的网络。在推断时,我们通过递归放大估计值来应用我们的通信网络,从而产生能够提供高精度通信的多尺度流水线。在从宽基线立体到光流的多个数据集和任务上,我们的方法在稀疏和稠密的对应问题上均明显优于最新技术,而无需对特定数据集进行任何重新训练。我们致力于发布数据,代码和所有必要的工具,以从头开始进行训练并确保可重复性。

内容中包含的图片若涉及版权问题,请及时与我们联系删除