【论文标题】In-sample Contrastive Learning and Consistent Attention for Weakly Supervised Object Localization
【延世大学】针对弱监督目标定位的样本内对比学习和一致关注
【作者团队】Minsong Ki, Youngjung Uh, Wonyoung Lee, and Hyeran Byun
【发表时间】9月28日
【论文链接】https://arxiv.org/pdf/2009.12063v1.pdf
【推荐理由】
“本文带来一种新颖的弱监督目标定位模型,提出多种精心设计的损失函数,在基准数据集上取得了最先进的性能。”
弱监督目标定位(Weakly Supervised Object Localization,WSOL)任务,旨在仅使用图像级监督来定位目标对象。最近的模型通过丢弃最有鉴别的特征部分,在整个范围内激活特征图,但这可能导致背景过度拓张,从而导致对定位信息的错误估计。在本文中,研究人员认为背景是指导特征激活以覆盖复杂的对象区域的重要信息,并提出一种对比注意损失函数。损失函数促进前景与其丢弃版本之间的相似性和丢弃版本与背景之间的差异性。此外,研究人员提出了前景一致性损失函数,该惩罚会惩罚那些产生噪声注意力的浅层,从而减少较深的层中产生嘈杂的注意力,以作为提供他们感知背景信息的参考。它引导浅层上激活目标,而不是在局部独特的背景上激活,以便它们在后面的层获取类似的注意力。为了更好地优化上面提出的多个损失函数,研究人员在实验中使用非局部注意力块去替换通道池化注意力,从而引导对注意力图的空间相似性进行增强,并建议丢弃删除最有区别的区域之外的背景区域。该方法在CUB-200-2011和ImageNet基准数据集上实现了最先进的性能,有关top-1定位精度和MaxBoxAccV2的信息。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢