【论文标题】Interpretable and Generalizable Person Re-Indentification with Query-Adaptive Convolution and Temporal Lifting 一种基于查询-自适应卷积和时序挖掘的可解释和可泛化行人重新识别方法 【作者团队】Shengcai Liao and Ling Shao 【发表时间】2020/8/26 【论文链接】https://arxiv.org/abs/1904.10424 【代码链接】https://github.com/ShengcaiLiao/QAConv 【推荐理由】本文收录于ECCV-2020,来自阿联酋国家级人工智能研究院(IIAI)的学者们指出,现有的深度行人重识别方法往往基于特征表达,然而缺乏迁移学习,学习好的模型参数是固定的,不能很好的用于解决多种未见过的场景。本文作者提出一种可解释和泛化的行人再辨识方法,即直接在两张待匹配的特征图上做点对点的图像匹配。首先,作者设计了一种查询-自适应卷积(QA-Conv),通过查询图像的深度特征生成新的卷积核,并在注册图像的深度特征上做卷积和全局最大化池化实现点对点的匹配,这个过程是显示的、可解释的。其次,还设计了一种与模型无关的基于时序共存的相似度分数加权法,成为时序挖掘(T-Lift)。该方法无需使用迁移学习便超越了一些主流方法大约10%的mAP,这种基于匹配机制改变的方法达到了当前最好的跨库行人重识别性能。

内容中包含的图片若涉及版权问题,请及时与我们联系删除