MixCo: Mix-up Contrastive Learning for Visual Representation

论文链接:https://arxiv.org/abs/2010.06300

可应用于并显著提高最新自监督学习方法的性能,如MoCo v2和SimCLR等,作者单位:韩国科学技术院(KAIST)

在最近的自监督的视觉表示方法中,对比学习已显示出惊人的结果。通过学习从对应的negatives pair中对比positive pairs的表示,可以训练出良好的视觉表示而无需人工注释。本文提出了混合对比度(MixCo),它将对比度学习概念扩展到由正负图像混合编码的半正值。MixCo的目的是学习表示的相对相似性,反映出多少混合图像具有original positive。 我们在TinyImageNet,CIFAR10和CIFAR100的标准线性评估协议下,将MixCo应用于最新的自监督学习算法时,验证了MixCo的功效。在实验中,MixCo不断提高测试准确性。值得注意的是,当学习能力(例如模型大小)受到限制时,这种改进更为显著,这表明MixCo在实际场景中可能会更有用。

内容中包含的图片若涉及版权问题,请及时与我们联系删除