- 简介在构建准确匹配的深度固定长度表示时,尤其是在像素级别上确定指纹上的密集特征点具有重要意义。为了探索指纹匹配的可解释性,我们提出了一个多阶段可解释的指纹匹配网络,即基于Vision Transformer(IFViT)的可解释固定长度表示指纹匹配,它由两个主要模块组成。第一个模块是可解释的密集配准模块,建立了一个基于Vision Transformer(ViT)的连锁网络,以捕捉指纹对中的长距离依赖关系和全局上下文。它提供了特征点的可解释密集像素对应关系以进行指纹对齐,并增强了后续匹配阶段的可解释性。第二个模块考虑了对齐的指纹对的局部和全局表示,以实现可解释的固定长度表示提取和匹配。它使用第一个模块中训练的ViTs,并加上附加的全连接层,重新训练它们以同时产生具有区分性的固定长度表示和可解释的密集像素对应关系的特征点。在各种公开可用的指纹数据库上进行的广泛实验结果表明,所提出的框架不仅在密集配准和匹配方面表现出优异的性能,而且显著促进了基于深度固定长度表示的指纹匹配的可解释性。
-
- 图表
- 解决问题本论文旨在解决指纹匹配中的密集特征点检测问题,提出了一种多阶段可解释的指纹匹配网络,该网络通过ViT模型建立了可解释的密集对应关系,提高了深度固定长度表示的可解释性。
- 关键思路论文提出的多阶段可解释的指纹匹配网络IFViT,通过ViT模型建立了可解释的密集对应关系,同时考虑了对齐后指纹对的局部和全局表示,实现了可解释的固定长度表示提取和匹配。
- 其它亮点论文在多个公开指纹数据库上进行了实验,证明了所提出的框架在密集对齐和匹配方面表现出优异的性能,并显著提高了深度固定长度表示的可解释性。论文还开源了代码,提供了一个新的研究方向。
- 最近的相关研究包括:《Deep Learning for Fingerprint Recognition: A Comprehensive Review》、《Fingerprint Matching Based on Deep Convolutional Features》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流