大型的、预训练的基于Transformer的语言模型,如BERT,已经极大地改变了自然语言处理(NLP)领域。我们对最近的研究进行了调研,这些研究使用了大型语言模型来解决NLP任务,通过预训练、微调、提示或文本生成方法。我们还提出了使用预训练语言模型生成数据的方法,用于训练增强或其他目的。最后,我们讨论了局限性,并提出了未来研究的方向。

论文链接:https://arxiv.org/abs/2111.01243

内容中包含的图片若涉及版权问题,请及时与我们联系删除