【论文标题】FROST: Faster and more Robust One-shot Semi-supervised Training 【作者团队】Helena E. Liu, Leslie N. Smith 【发表时间】2020/11/18 【论文链接】https://arxiv.org/pdf/2011.09471.pdf 【论文代码】https://github.com/HelenaELiu/FROST 【推荐理由】 本文来自美国海军研究实验室,针对半监督学习目前训练速度较慢,并且对性能标记数据和参数值的选择较为敏感的问题,提出了一种单次半监督学习方法,主要着重解决N级分类的问题。结果表明该方法比最新方法的训练速度快一个数量级,并且更健壮。

在本文中,作者证明了将半监督学习与特定形式的单阶段自训练相结合,可以为半监督学习提供一种更强大的学习方法,从而可以更快、更可靠的训练神经网路。在这项工作中,作者还使用了两种当前比较成功的一键式半监督学习方法(BOSS和FixMatch)作为对比。图1所示,FROST在仅128个纪元内的训练过程中达到了94%的测试准确度,而其他方法则要少得多。

图 1:半监督学习比较结果
算法的关键要素是一个单阶段的单网络形式的自训练。 自我训练的基本模型通常受到监督和自我训练,是训练两个网络的多阶段方法。 取而代之的是,作者使用半监督的基础和自训练的单阶段网络形式,并把提出的自我训练形式称为“自举”。

文章的主要贡献包括: (1)介绍了结合半监督学习和单阶段自我训练(称为自举)形式的新颖方法; (2)证明了这种方法可实现高性能,训练速度快得多,并且比以前的单次半监督训练方法更可靠; (3)实验比较了FROST方法在一系列数据集(CIFAR-10,CIFAR-100,SVHN和STL-10)上以及未标记数据不平衡或包含不是训练课程之一的图像时的情况; (4)通过将基本模型的众多组合与一致性正则化、对比表征学习、类平衡和类原型进行比较,证明了框架是通用的。

内容中包含的图片若涉及版权问题,请及时与我们联系删除