论文标题:Co-Mixup: Saliency Guided Joint Mixup with Supermodular Diversity 论文链接:https://arxiv.org/abs/2102.03065 代码链接:https://github.com/snu-mllab/Co-Mixup 作者单位:首尔大学 极大提高网络的泛化能力,性能优于CutMix、Puzzle Mix等方法,代码刚刚开源!该工作已收录于ICLR 2021(Oral)。

虽然深度神经网络在适应训练分布方面显示出了出色的性能,但仍要提高网络对测试分布的泛化性能以及对输入扰动敏感性的鲁棒性仍然是一个挑战。尽管已经提出了许多基于混合的增强策略来部分解决它们,但是从优化的角度来看,如何最好地利用每个输入数据中的监督信号来进行混合仍不清楚。我们提出了关于批处理混合的新观点,并制定了一批混合数据的最佳构造,以最大化每个单独的混合数据的数据显著性度量,并鼓励所构造的混合数据之间的超模多样性。这导致了一个新颖的离散优化问题,该问题使子模函数之间的差异最小。我们还提出了一种有效的基于模块化近似的迭代子模块最小化算法,用于每个基于微型批次的神经网络训练的每个微型批次的高效混合计算。我们的实验表明,与其他混合方法相比,该方法可实现最先进的泛化,校准和弱监督的定位结果。

内容中包含的图片若涉及版权问题,请及时与我们联系删除