本文介绍一篇最近被机器学习国际权威会议NeurIPS 2021接受的长文:「FlexMatch: Boosting Semi-Supervised Learning with Curriculum Pseudo Labeling」,第一作者为日本东京工业大学的张博闻和王一栋,其他作者来自东京工业大学和微软亚洲研究院。文章针对半监督提出了 「课程伪标签(Curriculum Pseudo Labeling, CPL)」 的方法,其能被简单地应用到多个半监督方法上,且「不会」引入新的超参数和额外的计算开销。多项实验证明,CPL不仅能提升已有方法的精度,也能大幅提升收敛速度(例如,在一些数据集上比Google的FixMatch快5倍)。特别地,文章中将CPL应用在FixMatch后的新算法命名为「FlexMatch」, 并在多个图像分类数据集上取得了state-of-the-art的效果。除此之外,本文还开源了一个统一的基于Pytorch的「半监督方法库TorchSSL」,公平地实现了诸多流行的半监督方法,方便相关领域进行进一步研究。
-
论文标题:FlexMatch: Boosting Semi-Supervised Learning with Curriculum Pseudo Labeling
-
论文地址:https://arxiv.org/abs/2110.08263 -
代码地址:https://github.com/TorchSSL/TorchSSL
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢