Efficiently Exploring Large Language Models for Document-Level Machine Translation with In-context Learning

2024年06月11日
  • 简介
    大型语言模型(LLMs)通过上下文学习在机器翻译中表现出色。与句子级翻译相比,基于上下文学习的文档级翻译(DOCMT)面临两个主要挑战:首先,LLMs生成的文档翻译通常不连贯;其次,上下文学习的演示长度通常受限。为了解决这些问题,我们提出了一种上下文感知提示方法(CAP),使LLMs能够通过上下文学习生成更准确、连贯和连贯的翻译。CAP考虑多级注意力,选择与当前句子最相关的句子作为上下文,然后从这些收集到的句子中生成摘要。随后,从数据存储库中检索与摘要最相似的句子作为演示,这有效地指导LLMs生成连贯和连贯的翻译。我们在各种DOCMT任务中进行了广泛的实验,结果表明我们的方法的有效性,特别是在零代词翻译(ZPT)和文学翻译任务中。
  • 作者讲解
  • 图表
  • 解决问题
    解决问题:该论文旨在解决文档级机器翻译中的连贯性和一致性问题,以及在上下文学习中演示长度的限制问题。
  • 关键思路
    关键思路:该论文提出了一种上下文感知提示(CAP)方法,通过多层关注、选择与当前句子最相关的句子作为上下文,并从这些收集的句子生成摘要,然后从数据存储库中检索与摘要最相似的句子作为演示,有效地引导LLMs生成连贯和一致的翻译。
  • 其它亮点
    亮点:通过在各种文档级机器翻译任务中进行广泛的实验,结果表明我们的方法的有效性,尤其是在零代词翻译(ZPT)和文学翻译任务中。该论文使用了多个数据集进行实验,并开源了代码。该方法可以进一步改进和扩展。
  • 相关研究
    相关研究:最近的相关研究包括:《文档级机器翻译的挑战与前景》、《基于上下文的机器翻译方法》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问