论文标题:DetCo: Unsupervised Contrastive Learning for Object Detection 论文链接:https://arxiv.org/abs/2102.04803 代码链接:https://github.com/xieenze/DetCo 作者单位:香港大学 & 华为诺亚 & 武汉大学 表现SOTA!性能优于MoCov2、SwAV等网络,其在分割、姿态估计等任务上也涨点明显!代码即将开源!
无监督对比学习在使用CNN学习图像表示方面取得了巨大的成功。与专注于提高图像分类准确性的最新方法不同,我们提出了一种名为DetCo的新型对比学习方法,该方法可以全面探究全局图像和局部图像块之间的对比,以学习用于目标检测的判别表示。 DetCo有几个吸引人的好处。 (1)通过研究当前自监督方法的弱点进行了精心设计,这些弱点舍弃了用于目标检测的重要表示。 (2)DetCo在全局图像和局部patch之间建立分层的中间对比损失,以改善目标检测,同时保持图像识别的全局表示。理论分析表明,局部patch实际上去除了图像的上下文信息,从而改善了互信息的下限,从而可以更好地进行对比学习。 (3)在PASCAL VOC,COCO和Cityscapes上进行的大量实验表明,DetCo不仅在目标检测方面优于最新技术,而且在分割,姿态估计和3D形状预测方面均优于最新方法,尽管在图像上仍具有竞争力分类。例如,在PASCAL VOC上,DetCo-100ep达到57.4 mAP,与MoCov2-800ep的结果相当。此外,DetCo在Mask RCNN-C4 / FPN / RetinaNet上以1倍的进度持续优于监督方法1.6 / 1.2 / 1.0 AP。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢