论文标题:Contrastive Learning for Label-Efficient Semantic Segmentation 论文链接:https://arxiv.org/abs/2012.06985 作者单位:西北大学(美国), 谷歌 本文提出了一种基于对比学习的训练策略,首先使用基于像素类标记的对比损失对网络进行预训练,然后使用交叉熵损失对其进行微调,可增加了类内的紧凑性和类间的可分离性。

收集用于语义分割任务的标记数据既昂贵又费时,因为它需要密集的像素级注释。尽管最近基于卷积神经网络(CNN)的语义分割方法通过使用大量标记的训练数据已取得了令人印象深刻的结果,但随着标记数据量的减少,它们的性能将显著下降。发生这种情况是因为经过事实上的交叉熵损失训练的深度CNN可以很容易地过度拟合少量的标记数据。为了解决这个问题,我们提出了一种简单有效的基于对比学习的训练策略,在该策略中,我们首先使用基于像素类标记的对比损失对网络进行预训练,然后使用交叉熵损失对其进行微调。这种方法增加了类内的紧凑性和类间的可分离性,从而产生了更好的像素分类器。我们使用Cityscapes和PASCAL VOC 2012细分数据集在全监督和半监督的环境中证明了所提出的训练策略的有效性。我们的结果表明,当标签数据量有限时,使用基于标签的对比损失进行预训练会带来较大的性能提升(在某些情况下绝对提高20%以上)。

内容中包含的图片若涉及版权问题,请及时与我们联系删除