【数据增强】Co-Mixup: Saliency Guided Joint Mixup with Supermodular Diversity(ICLR2021)
【论文链接】https://arxiv.org/pdf/2102.03065.pdf
【作者团队】Jang-Hyun Kim, Wonho Choo, Hosan Jeong, Hyun Oh Song
【机构】首尔国立大学计算机科学与工程系, 神经处理研究中心
【代码链接】https://github.com/snu-mllab/Co-Mixup
【发表时间】2021/2/8
【推荐理由】
本文介绍了一种新的数据增强方法,显著性引导的联合混合和超模多样性的协同混合方法,论文已被ICLR2021接收。
虽然深层神经网络在适应训练分布方面显示出了出色的性能,但提高网络对测试分布的泛化性能以及对输入扰动敏感性的鲁棒性仍然是一个挑战。尽管已经提出了许多基于混合的增强策略来部分解决它们,但是从优化的角度来看,如何最好地利用每个输入数据中的监督信号进行混合仍不清楚。作者提出了关于批处理混合的新观点,并制定了一批混合数据的最佳构造,以最大化每个单独的混合数据的数据显著性度量,并鼓励所构造的混合数据之间的超模多样性。这导致了一个新颖的离散优化问题,该问题使子模函数之间的差异最小。作者还提出了一种有效的基于模块化近似的迭代子模块最小化算法,用于微型批处理的高效混合计算。实验表明,与其他混合方法相比,该方法可实现最好的的泛化,校准和弱监督定位结果。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢