【标题】Addressing domain shift in neural machine translation via reinforcement learning

【作者团队】Amit Kumar, Ajay Pratap, Anil Kumar Singh, Sriparna Saha

【发表日期】2022.4.7

【论文链接】https://www.sciencedirect.com/science/article/pii/S0957417422004547/pdfft?md5=711467a39e44b1688d178b3edb7c0e69&pid=1-s2.0-S0957417422004547-main.pdf

【推荐理由】域适应 (DA) 一直是神经机器翻译 (NMT) 任务中使用的著名迁移学习算法。在训练数据中添加与领域相关的语料库来训练模型可以提高 NMT 的性能。许多低资源语言对,如印地语-尼泊尔语和西班牙语-葡萄牙语,没有足够的并行数据来训练模型,面临域内数据稀缺问题。域内训练数据的不可用导致在训练模型时使用不相关的语料库,这会降低 NMT 性能。训练和测试数据之间的这种域不匹配会导致域移位问题。本文提出基于强化的句子选择和加权 (RSSW) 方法,它从域外数据中选择伪域内句子,并基于强化学习学习它们的权重。本文所提出的方法通过将源语言和目标语言编码为用于语言模型训练的通用编码脚本来利用语言对之间的相似性。RSSW 使用最小风险训练和最大似然估计作为目标函数,在选定的伪域内句子上训练 NMT。

内容中包含的图片若涉及版权问题,请及时与我们联系删除