InterLUDE: Interactions between Labeled and Unlabeled Data to Enhance Semi-Supervised Learning

2024年03月15日
  • 简介
    半监督学习(SSL)通过对标记和未标记数据进行训练来提高任务性能。主流的SSL图像分类方法主要优化一个损失函数,该函数将监督分类目标和仅从未标记数据派生的正则化项相加。这种形式忽略了标记和未标记图像之间相互作用的潜力。本文介绍了InterLUDE,一种新的增强SSL的方法,由两部分组成,每个部分都从标记和未标记的交互中受益。第一部分是嵌入融合,插值标记和未标记嵌入以改进表示学习。第二部分是一种新的损失,基于一致性正则化原则,旨在最小化模型在标记和未标记输入之间的预测差异。在标准的封闭式SSL基准测试和一个未筛选的未标记集的医学SSL任务上的实验表明,我们的方法具有明显的优势。在仅有40个标签的STL-10数据集上,InterLUDE实现了3.2%的错误率,而最佳先前方法报告了14.9%。
  • 图表
  • 解决问题
    论文旨在通过使用标记和未标记的数据进行训练,提高任务性能。具体而言,论文试图解决标记和未标记图像之间潜在交互被忽视的问题。
  • 关键思路
    论文提出了一种新方法InterLUDE,由两部分组成。第一部分是嵌入融合,通过插值融合标记和未标记的嵌入来改善表示学习。第二部分是一种新的损失函数,基于一致性正则化原则,旨在最小化模型在标记和未标记输入之间预测的差异。
  • 其它亮点
    论文在标准的闭集SSL基准测试和医学SSL任务上进行了实验,证明了InterLUDE方法的明显优势。在仅有40个标签的STL-10数据集上,InterLUDE实现了3.2%的错误率,而最好的先前方法报告了14.9%。值得注意的是,论文提出的方法不需要对未标记数据进行筛选或人工标记。
  • 相关研究
    与此相关的最新研究包括MixMatch、FixMatch、ReMixMatch等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论