【论文标题】Zero-Shot Cross-Lingual Transfer with Meta Learning
【作者团队】Farhad Nooralahzadeh, Giannis Bekoulis, Johannes Bjerva, Isabelle Augenstein
【发表时间】EMNLP 2020
【论文链接】https://www.aclweb.org/anthology/2020.emnlp-main.368/
【公开代码】https://github.com/copenlu/X-MAML
【推荐理由】本文提出一种新的基于zero-shot的meta learning的方法用于跨语言的迁移学习方法。并通过实验发现meta learning在跨语言迁移学习任务上有着很好的性能。
学习任务之间共享什么已经成为一个非常重要的话题,因为知识的战略性共享已经被证明可以提高下游任务的绩效。这对于多语言模型的应用尤其重要,因为世界上大多数语言的资源都不足。在这里,当英语以外的语言几乎没有数据可用时,可以考虑同时在多种不同语言上设置训练模型。文中表明,这种具有挑战性的设置可以通过元学习来实现:除了训练源语言模型外,另一个模型还学习选择哪些训练实例对第一个最有利。文中在不同的自然语言理解任务(自然语言推理、问题回答)中使用标准监督、zero-shot跨语言以及few-shot跨语言设置进行实验。作者广泛的实验装置证明了共15种语言的元学习的一致有效性。作者改进了zero-shot和few-shot NLI(在MultiNLI和XNLI上)和QA(在MLQA数据集上)的最新技术。综合错误分析表明,当通过元学习学习的参数共享是有益的时,语言之间类型特征的相关性可以部分解释。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢