- 简介大型语言模型(LLMs)通过上下文学习在机器翻译中表现出色。与句子级翻译相比,基于上下文学习的文档级翻译(DOCMT)面临两个主要挑战:首先,LLMs生成的文档翻译通常不连贯;其次,上下文学习的演示长度通常受限。为了解决这些问题,我们提出了一种上下文感知提示方法(CAP),使LLMs能够通过上下文学习生成更准确、连贯和连贯的翻译。CAP考虑多级注意力,选择与当前句子最相关的句子作为上下文,然后从这些收集到的句子中生成摘要。随后,从数据存储库中检索与摘要最相似的句子作为演示,这有效地指导LLMs生成连贯和连贯的翻译。我们在各种DOCMT任务中进行了广泛的实验,结果表明我们的方法的有效性,特别是在零代词翻译(ZPT)和文学翻译任务中。
-
- 图表
- 解决问题解决问题:该论文旨在解决文档级机器翻译中的连贯性和一致性问题,以及在上下文学习中演示长度的限制问题。
- 关键思路关键思路:该论文提出了一种上下文感知提示(CAP)方法,通过多层关注、选择与当前句子最相关的句子作为上下文,并从这些收集的句子生成摘要,然后从数据存储库中检索与摘要最相似的句子作为演示,有效地引导LLMs生成连贯和一致的翻译。
- 其它亮点亮点:通过在各种文档级机器翻译任务中进行广泛的实验,结果表明我们的方法的有效性,尤其是在零代词翻译(ZPT)和文学翻译任务中。该论文使用了多个数据集进行实验,并开源了代码。该方法可以进一步改进和扩展。
- 相关研究:最近的相关研究包括:《文档级机器翻译的挑战与前景》、《基于上下文的机器翻译方法》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流