前几天,Facebook发了一个百种语言互译的模型M2M-100,这边谷歌着急了,翻译可是我的老本行啊。
刚刚,谷歌也放出了一个名为 mT5的模型,在一系列英语自然处理任务上制服了各种SOTA。
你发,我也发,你支持100种,我支持101种!(虽然多这一种没有多大意义,但气势上不能输)
mT5是谷歌 T5模型的多语种变体,训练的数据集涵盖了101种语言,包含3亿至130亿个参数,从参数量来看,的确是一个超大模型。
参考链接: https://arxiv.org/pdf/2010.11934.pdf
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢