Transformer模型好是好,可惜太慢了!最近一位清华大神在arxiv上传了一篇论文,提出新模型Fastformer,线性时间复杂度,训练和推理效率史上最快,还顺手在排行榜刷了个sota。
论文地址:https://arxiv.org/abs/2108.09084
文章的第一作者武楚涵,是清华大学电子工程系的博士研究生。
目前的研究兴趣包括推荐系统、用户建模和社会媒体挖掘。在人工智能、自然语言处理和数据挖掘领域的会议和期刊上发表过多篇论文。
仅2021年就在顶会上发表了六篇论文,大神的世界只能仰望。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢