今年年初,DeepMind 发布了基于 Transformer 的新模型 AlphaCode,该模型实现了大规模代码生成。

https://www.deeplearning.ai/the-batch/competitive-coder/

这是一款用 12 种编程语言对 8600 万个程序进行预训练的 Transformer,并针对编码竞赛的内容进行了微调。通过推理,它产生了一百万种可能的解决方案,并过滤掉了不佳的解决方案。通过这种方式,它在 10 次编程竞赛中击败了一半以上的参赛者。

AlphaCode 又在《Science》上发表了新论文,并登上了最新一期的《Science》封面,论文描述了AlphaCode是如何工作的:
https://www.science.org/doi/10.1126/science.abq1158

DeepMind对于AlphaCode的定调并非“AI版程序员”,而是希望它作为一个辅助的角色出现在编程工作中:“我们希望它能作为软件开发者的助手,尤其是为0编程基础的人提供写代码的机会。”

 

更多阅读:

AlphaCode:程序员的另类“内卷”?

击败一半人类参赛程序员的 AlphaCode