从结构和训练范式、评估方法、应用等各个方面,对传统语言模型的和预训练语言模型进行了综述。
An Overview on Language Models: Recent Developments and Outlook
Chengwei Wei, Yun-Cheng Wang, Bin Wang, C.-C. Jay Kuo
[University of Southern California & National University of Singapore]
-
语言建模是自然语言处理中的一项基本任务,旨在预测文本字符串的概率分布;
-
传统语言模型(CLM)以因果关系的方式预测语言序列,而预训练语言模型(PLM)涵盖更广泛的概念,可面向下游应用进行微调;
-
本文涵盖了语言单元、标记化方法、语言模型结构和训练范式、评估方法和应用等主题;
-
未来的研究方向包括对可解释的、可靠的、特定领域的和轻量的语言模型的需求。
https://arxiv.org/abs/2303.05759
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢