本篇目的是从预训练模型的发展历程中,挖掘出一些作者们思路的脉络。希望读者看完本文后可以理解预训练发展的动力,以及论文的作者们是如何从现有模型的优缺点出发,改进预训练目标(pre-training objective)而发明新模型的。在后续的文章中,我还会介绍多语言预训练的相关工作,敬请期待。
-
从GPT和BERT到XLNet
-
从BERT和XLNet到MPNet
-
NLU任务的预训练 VS NLG任务的预训练
-
PTM: Pre-train Model, 预训练模型
-
LM: Language Model,语言模型
-
AR: Auto-Regressive,自回归
-
AE: Auto-Encoding,自编码
-
CLM: Causual Language Model
-
MLM: Masked Language Model
-
PLM: Permuted Language Model
-
NLU: Natural Language Understanding
-
NLG: Natural Language Generation
感兴趣的可以戳原文。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢