- 简介为了解决图像分类任务中MixUp及其变体(如Manifold MixUp)存在的问题,即忽略同一类别内的混合(内部混合)以及其混合操作在增强内部类别凝聚力方面的不足,我们提出了一种名为SynerMix-Intra的新型混合方法,并在此基础上引入了一种协同混合解决方案,名为SynerMix。SynerMix-Intra专门针对内部混合进行,以增强内部类别的凝聚力,这是当前混合方法未解决的特征。对于每个小批量,它利用每个类别未增强原始图像的特征表示来通过随机线性插值生成合成特征表示。然后将所有合成表示馈送到分类和损失层中,计算平均分类损失,从而显著增强内部类别的凝聚力。此外,SynerMix将SynerMix-Intra与现有的混合方法(例如MixUp、Manifold MixUp)相结合,这些方法主要关注类间混合,并具有增强类间可分性的优点。这样,它以平衡的方式集成了类内和类间混合,同时改善了内部类别的凝聚力和类间可分性。在六个数据集上的实验结果显示,SynerMix的准确率比MixUp或SynerMix-Intra单独的最佳准确率高0.1%至3.43%,平均提高了1.16%。它还比Manifold MixUp或SynerMix-Intra的最佳表现者高0.12%至5.16%,平均增加了1.11%。鉴于SynerMix是模型无关的,它在其他领域中具有重要的应用潜力,例如语音和文本分类。我们的代码公开在https://github.com/wxitxy/synermix.git。
- 图表
- 解决问题论文试图解决MixUp及其变种在图像分类任务中存在的问题,即它们忽略了同一类别内的混合(intra-class mixup)并且不能通过混合操作增强类内凝聚力,提出一种名为SynerMix-Intra的新型mixup方法,以增强类内凝聚力,并将其与现有的mixup方法相结合,从而在平衡内部和外部混合的同时提高类内凝聚力和类间可分性。
- 关键思路论文提出了一种新型mixup方法SynerMix-Intra,它通过随机线性插值来生成每个类别原始图像的特征表示,以增强类内凝聚力。此外,SynerMix还将SynerMix-Intra与现有的mixup方法相结合,以增强类间可分性。这种平衡的内部和外部混合方法可以应用于其他领域,例如语音和文本分类。
- 其它亮点论文使用六个数据集进行了实验,展示了SynerMix的优越性,其平均精度提高了1.16%,超过了MixUp和SynerMix-Intra的最佳表现。此外,它还超过了Manifold MixUp和SynerMix-Intra的最佳表现,平均提高了1.11%。论文的代码已在github上公开。
- 最近的相关研究包括MixUp和Manifold MixUp等mixup方法,以及其他用于增强模型性能的数据增强方法,例如CutMix和Ricap。
沙发等你来抢
去评论
评论
沙发等你来抢