01
02 多语言建模、回译等多管齐下扩充低资源语言数据
03 当MoE进入机器翻译,防止过拟合成为重点
04 NLLB性能对比
05 训练NLLB消耗5万多GPU小时,可能在教育、元宇宙等领域应用
举报类型(必选)
举报详情(选填)
0/200