2021年伊始,百度在自然语言处理领域取得最新突破,发布多语言预训练模型ERNIE-M。ERNIE-M通过对96门语言的学习,使得一个模型能同时理解96种语言,该项技术在5类典型跨语言理解任务上刷新世界最好效果。在权威跨语言理解榜单XTREME上,ERNIE-M也登顶榜首,超越微软、谷歌、Facebook等机构提出的模型。据了解,基于飞桨实现的 ERNIE-M模型也会于近期开源。 论文链接: https://arxiv.org/pdf/2012.15674.pdf 文心平台: https://wenxin.baidu.com/ 开源地址: https://github.com/PaddlePaddle/ERNIE
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢