【论文标题】Cross-lingual Visual Pre-training for Multimodal Machine Translation
【作者团队】O Caglayan, M Kuyu, M S Amac, P Madhyastha, E Erdem, A Erdem, L Specia
【发表时间】2021/1/25
【机构】Imperial College London & Hacettepe University & Koc University
【论文链接】https://arxiv.org/pdf/2101.10044.pdf
【推荐理由】本文已被EACL 2021接收,文章提出了一个基于跨语言视觉预训练的多模态机器翻译模型。
预训练语言模型已被证明可以显著提高许多自然语言任务的性能。尽管此类模型的早期重点是单一语言的预训练,但最近已扩展到跨语言和视觉的预训练模型。基于此,作者将这两种方法结合起来学习以视觉为基础的跨语言表示。具体来说,文章扩展了翻译语言建模和掩码区域分类和执行前训练与三方平行视觉和语言语料库。实验结果表明,当对多模态机器翻译进行微调时,这些模型获得了最先进的性能。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢