题目:Are Fewer Labels Possible for Few-shot Learning? 作者:Suichan Li, Dongdong Chen, Yinpeng Chen, Lu Yuan, Lei Zhang, Qi Chu, Nenghai Yu 链接:https://arxiv.org/abs/2012.05899v1 时间:2020/12 推荐理由:针对小样本学习,本文提出一个了一个更具挑战的场景:“在预训练(无标签)和微调(少标签)中,我们是否可以使用尽可能少的标签来进行小样本学习?”。作者认为,目标样本在特征空间中的聚类是进行小样本微调所做的事情,这样可以解释为什么普通的无监督前训练(较差的聚类)比有监督前训练差。在本文中,作者提出转导的无监督预训练方法,改善这种聚类。改进后的聚类结果对于识别出最具代表性的样本(“特征样本”)供用户标注具有重要的价值,对标记后的特征样本进行继续微调,进一步提高聚类效果。在10个不同的小样本学习的目标数据集上进行了实验,当每个目标类别只有10个标记样本时,在两个baseline上精度增益分别为9.2%和3.42。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢