ACL 是计算语言学和自然语言处理领域的顶级国际会议,由国际计算语言学协会组织,每年举办一次。一直以来,ACL 在 NLP 领域的学术影响力都位列第一,它也是 CCF-A 类推荐会议。今年的 ACL 大会已是第 60 届,于 5 月 22-5 月 27 在爱尔兰都柏林举办。

来自微软等最新ACL2022教程《知识增强自然语言处理》教程,值得关注!

有效地从很少到没有数据中学习的能力对于将NLP应用于数据收集成本高或其他困难的任务至关重要。这在学术和实践上都是一个具有挑战性的设置——特别是因为训练中模型通常需要大量标记数据。最近,对未标记数据进行预训练的进展,带来了更好的零样本或少样本学习的潜力(Devlin et al., 2019; Brown et al., 2020)。特别是在过去的一年里,人们进行了大量的研究,利用大规模语言模型更好地从有限的数据中学习。在本教程中,我们的目标是让感兴趣的NLP研究人员了解最新的和正在进行的使用预训练的语言模型进行零样本和少样本学习的技术。此外,我们的目标是向观众揭示新的研究机会,这将有望使我们更接近解决该领域现有的挑战。
PDF链接:https://github.com/allenai/acl2022-zerofewshot-tutorial/raw/main/acl2022-zerofewshot-tutorial.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除