今年年初,DeepMind 发布了基于 Transformer 的新模型 AlphaCode,该模型实现了大规模代码生成。
https://www.deeplearning.ai/the-batch/competitive-coder/
这是一款用 12 种编程语言对 8600 万个程序进行预训练的 Transformer,并针对编码竞赛的内容进行了微调。通过推理,它产生了一百万种可能的解决方案,并过滤掉了不佳的解决方案。通过这种方式,它在 10 次编程竞赛中击败了一半以上的参赛者。
AlphaCode 又在《Science》上发表了新论文,并登上了最新一期的《Science》封面,论文描述了AlphaCode是如何工作的:
https://www.science.org/doi/10.1126/science.abq1158
DeepMind对于AlphaCode的定调并非“AI版程序员”,而是希望它作为一个辅助的角色出现在编程工作中:“我们希望它能作为软件开发者的助手,尤其是为0编程基础的人提供写代码的机会。”
更多阅读:
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢