最近科学界又出现一场争论,故事的主角是DeepMind位于伦敦的研究中心于2021年12月发表的一篇Science论文,研究人员发现神经网络可以用来训练并构建比以前更精确的电子密度和相互作用图,能够有效解决传统泛函理论中的系统误差。

论文链接:https://www.science.org/doi/epdf/10.1126/science.abj6511

文中提出的DM21模型准确地模拟了复杂的系统,如氢链、带电的DNA碱基对和二元过渡态。对量子化学领域来说,可以说是开辟了一条通往精确的通用函数且可行的技术路线。

DeepMind的研究人员还放出了DM21模型的代码,方便同行复现。

仓库链接:https://github.com/deepmind/deepmind-research

按照道理来说,论文和代码都公开,还是发表在顶级期刊上,实验结果和研究结论基本上是可靠的。

但时隔八个月,来自俄罗斯和韩国的八位研究人员也在Science上发表了一篇科技评论,他们认为DeepMind原始研究中存在问题,即训练集和测试集可能存在重叠部分,导致实验结论不正确。

论文链接:https://www.science.org/doi/epdf/10.1126/science.abq3385

如果质疑属实,那DeepMind这篇号称化学界重大技术突破的论文,神经网络取得的改进可能都得归功于数据泄露了。

不过DeepMind的反应也很迅速,在该评论发表的同一天,立刻写了一篇回复表示反对,并表示强烈谴责:他们提出的观点要么不正确,要么与论文的主要结论以及对DM21总体质量的评估无关。

论文链接:https://www.science.org/doi/epdf/10.1126/science.abq4282

著名物理学家费曼曾说过,科学家就是要尽快证明自己是错误的,唯有如此才能进步。

虽然这次讨论的结果还没有定论,俄罗斯团队也没有进一步发表反驳文章,但该事件对人工智能领域的研究可能会产生更深远的影响:即该如何证明自己训练得到的神经网络模型,真正理解了任务,而非只是记忆pattern?

内容中包含的图片若涉及版权问题,请及时与我们联系删除