论文标题:Analyzing Overfitting under Class Imbalance in Neural Networks for Image Segmentation 代码链接:https://arxiv.org/abs/2102.10365 作者单位:帝国理工学院 本文引入了流行的损失函数和正则化技术的新不对称变体,包括大量的margin loss, focal loss,对抗训练,混合和数据增广,可显著提升类别不平衡下的分割性能!

类别不平衡给开发unbiased,准确的预测模型带来了挑战。特别地,在图像分割中,神经网络可能过拟合于来自小结构的前景样本,而小结构通常在训练集中的代表性不足,导致泛化不佳。在这项研究中,我们通过检查网络行为来提供关于类别不平衡下过度拟合问题的新见解。从经验上我们发现,当训练有限的数据和严重的类别失衡时,在测试时间,logit激活的分布可能会跨越决策边界,而代表性良好的类别的样本似乎不受影响。这种偏差会导致小型结构的系统分割。对于不同的数据库,任务和网络体系结构,始终可以观察到这种现象。为了解决这个问题,我们引入了流行的损失函数和正则化技术的新不对称变体,其中包括大量的margin loss, focal loss,对抗训练,混合和数据增广,这些都是专门为应对代表性不足的类的对数漂移而设计的。在一些具有挑战性的分割任务上进行了广泛的实验。我们的结果表明,与基准线和替代方法相比,对目标函数的修改可以显著提高分割精度。

内容中包含的图片若涉及版权问题,请及时与我们联系删除