- 简介最近出现了一种新的机器翻译范式:在平行文本上对大型语言模型进行微调已被证明优于以监督方式训练的专用翻译系统,即使后者使用了更大量的平行数据(Xu等人,2024a; Alves等人,2024)。然而,目前尚不清楚这种范式是否能够实现大规模多语言机器翻译,或者是否需要为少数语言对微调专用模型。翻译微调对LLM在零翻译语言、零翻译语言对以及不涉及英语的翻译任务的MT能力有何影响?为了回答这些问题,我们对TOWER系列语言模型(Alves等人,2024)在来自多语言平行数据集FLORES-200的132个翻译任务上进行了广泛的实证评估。我们发现,即使是对于零翻译语言,翻译微调平均也能提高翻译质量,但其影响取决于涉及的语言对。这些结果呼吁进一步研究,以有效地实现LLM的大规模多语言翻译。
- 图表
- 解决问题研究翻译fine-tuning对LLM在零样本语言、零样本语言对和不涉及英语的翻译任务中的影响,以探讨LLM是否能够实现大规模多语言机器翻译。
- 关键思路通过对132个翻译任务的实验评估,发现翻译fine-tuning即使对于零样本语言也能提高翻译质量,但其影响取决于涉及的语言对。这表明需要进一步研究如何有效地利用LLM实现大规模多语言翻译。
- 其它亮点实验使用了FLORES-200数据集,发现翻译fine-tuning对LLM的翻译质量有积极影响。需要进一步研究如何实现大规模多语言翻译。
- Xu等人和Alves等人的研究表明,使用fine-tuning的LLM在翻译任务上的表现优于传统的监督式翻译系统。
沙发等你来抢
去评论
评论
沙发等你来抢