DRUGONE

当生成式人工智能绘制分子时,它不仅可能出错,还可能重塑研究人员对化学的认知,传播错误的世界表征,从而误导学习者,扭曲同行评议的报告,并侵蚀对科学工作和严谨性的信任。

打开任何常见的生成式人工智能工具,例如 ChatGPT、Gemini 或 Copilot,要求其绘制分子结构或元素周期表。乍一看,这些图像可能颇具吸引力,让人觉得可以作为演示或论文的快速解决方案。然而仔细观察就会发现,它们充斥着荒谬的多价结构、完全无视 VSEPR 规则、缺乏键合原理的理解、虚构的环系,甚至用一些神秘符号替代元素周期表。无论提示工程如何优化,都无法得到符合化学家理解的真实世界的图像。


在社交媒体以及科研传播中,化学相关的生成式 AI 图像变得越来越普遍。虽然 GAI 在某些任务上表现良好,但在化学表征方面显然没有达到标准。问题在于,这些图像不仅出现在科普传播中,甚至可能出现在期刊封面、会议展示以及同行评议的论文中。虽然部分情况下,作者希望借助时下流行的美学风格来提升研究传播效果,但这种做法却无意中固化并扩散了错误的科学认知。如果不加以控制,这些错误的图像会逐渐被接受为“常态”,最终损害对化学的理解和信任。


化学中的分子绘制方法承载着丰富的理论传统。例如,Kekulé 的结构图帮助揭示了芳香性,Le Bel 和 van ’t Hoff 的工作则通过手性图示揭示了分子的三维特征。尽管分子绘图是一种人为约定,并不等同于现实本身,但它们却是化学家设计、合成和解析化合物的核心工具。比如,化学键通常被画作一条线连接两个原子,而在现实中,化学键是电子密度分布的复杂现象。但这种简化的表征极大地帮助了研究人员理解和操作化学反应。由此可见,表征方式虽然有限,但极其重要,它既塑造了研究人员对世界的理解,也影响了外界如何理解科学。如果让错误的 GAI 图像侵蚀这一视觉体系,就可能导致误解、错误学习,甚至影响未来科学家的培养。

当前的社会背景也使这一问题更为严峻。在一些政治与社会语境中,科学知识正面临被贬低甚至否认的风险,常常被与信仰或假消息相提并论。在这样的环境下,研究人员有责任确保所生成和传播的图像尽可能准确,符合科学共识。


需要明确的是,研究人员并非认为人工智能对科学有害。事实上,人工智能在研究设计、发展、分析和传播中已经展现了巨大价值,未来也将在可持续发展等重大挑战中发挥作用。关键在于:当其用于化学表征(尤其是分子与元素图像)时,必须经过严格控制和人工修正。否则,它所带来的错误风险将超过其便利性。


因此,研究人员呼吁化学界在当前阶段禁止在任何学术或传播图像中使用未经修正的 GAI 分子或元素表征。即便 GAI 可以提供初步草图,也应由研究人员亲自添加和确认分子结构,以避免科学传播受到污染。


目前,《自然》等期刊已决定,在可预见的未来(除非文章主题本身与 AI 相关),不会发表由 GAI 部分或完全生成的图像。这一决定基于科学诚信与透明性的原则,强调 AI 图像来源难以验证的问题。研究人员认为,化学界必须采取同样的严格立场,以确保科学知识的准确性与公信力。


最后,研究人员强调:GAI 在化学图像生成上的局限,不仅会影响下一代学习化学的方式,也会改变整个化学共同体对自身的理解。为此,科学家群体必须积极行动,主动参与到 AI 工具的设计与规范化过程中,确保科学表征的安全与真实。

整理 | DrugOne团队


参考资料


Moores, A., Zuin Zeidler, V.G. Don’t let generative AI shape how we see chemistry. Nat Rev Chem (2025). 

https://doi.org/10.1038/s41570-025-00757-9

内容为【DrugOne】公众号原创转载请注明来源

内容中包含的图片若涉及版权问题,请及时与我们联系删除