【论文标题】MIRROR-GENERATIVE NEURAL MACHINE TRANSLATION
【作者团队】Zaixiang Zheng, Hao Zhou, Shujian Huang, Lei Li, Xin-Yu Dai, Jiajun Chen
【发表时间】ICLR 2020
【论文链接】https://iclr.cc/virtual/poster_HkxQRTNYPH.html
【推荐理由】本文提出一种镜像生成式的翻译模型,通过共享隐语义空间对两种不同的语言进行建模,并通过回译的方法来提高翻译的质量。同时该模型也可以利用非平行双语语料数据来训练隐语义空间,提高翻译句子的流畅性,提高了低资源语言之间的翻译质量。
训练神经机器翻译模型(NMT)需要大量的并行运算语料库,对于许多语言对来说都是稀缺的。然而,原始非平行语料库通常很容易获得。现有的方法没有充分利用非平行双语资料在训练或解码方面的潜力。在本文中,作者提出了镜像生成NMT(MGNMT),一个统一的体系结构它同时集成了源到目标的翻译模型源代码翻译模型和两种语言模型。翻译模型和语言模型共享相同的潜在语义空间,因此两种语言模型都是翻译方向可以更有效地从非并行数据中学习。另外,翻译模型和语言模型可以在解码过程中协同工作。作者的实验结果表明,所提出的MGNMT的性能在各种语言对和场景中的都优于其他类似的方法,包括资源丰富的以及资源不足的情况。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢