-
Jakob 提出用自注意力替代 RNN,并开始努力尝试这一想法;
-
Ashish 和 Illia 一起设计并实现了第一批 Transformer 模型,并重度参与了 Transformer 架构的各方面工作;
-
Noam 提出了缩放点积注意力、多头注意力和无参数位置表示,并成为几乎每一个细节的参与者;
-
Niki 在原始代码库和 tensor2tensor 中设计、实现、调优和评估了无数的模型变量;
-
Llion 还尝试了新的模型变体,负责初始代码库以及高效的推理和可视化;
-
Lukasz 和 Aidan 花了无数天的时间来设计和实现 tensor2tensor 的各个部分,替换了早期的代码库,极大地改善了结果、加速了研究进度。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢