现阶段在NLP领域解决few-shot learning最火的方法就是prompt了。Prompt通过设计特定任务的具体模板,以及如何将预测结果映射到对应label,基于预训练语言模型给出预测结果。即使样本量很少,甚至没有样本,也能取得比较好的效果。
然而,基于prompt的few-shot learning方法的问题在于,需要人工针对不同任务设计将输入转化为prompt模板的方法,以及将预测结果映射到label的方法。并且之前的研究也表明,这种方法的效果对于prompt的设计或者label映射的方法选择非常敏感,即使模板中一个单词的变化,也会带来效果的大幅波动。
ACL 2022 Meta AI发表了一篇文章PERFECT: Prompt-free and Efficient Few-shot Learning with Language Models,提出在few-shot learning场景下,不需要依赖prompt模板和verbalizer的设计,也能达到优异效果的方法,并且finetune的效率也很高。这种方法比较适合样本量不是特别少(比如只有几个样本或者没有样本)的few-shot learning场景。
论文链接:https://arxiv.org/abs/2204.01172
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢