Comprehensive Attention Self-Distillation for Weakly-Supervised Object Detection
论文链接:https://arxiv.org/abs/2010.12023 代码链接:https://github.com/DeLightCMU/CASD
表现SOTA!性能优于MIST、WSOD2和C-MIDN等网络,代码刚刚开源!已收录于NeurIPS 2020,作者单位:卡内基梅隆大学
弱监督目标检测(WSOD)已成为仅使用图像级类别标签来训练目标检测器的有效工具。但是,如果没有对象级别的标签,WSOD检测器很容易检测到显著性对象,聚类对象和区分对象部分上的边界框。此外,图像级类别标签不会在同一图像的不同变换之间强制执行一致的目标检测。为了解决上述问题,我们为WSOD提出了一种综合注意力自蒸馏(CASD)训练方法。为了在所有对象实例之间平衡特征学习,CASD计算来自同一图像的多个变换和特征层的综合注意力。为了对对象执行一致的空间监视,CASD在WSOD网络上进行自蒸馏,以便通过同一图像的多次变换和特征层同时近似全面关注。CASD在标准基准(例如PASCAL VOC 2007/2012和MS-COCO)上产生了最新的WSOD结果。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢