本文选自《物理》2021年第2期,作者:蒋文杰(清华大学交叉信息研究院),邓东灵(清华大学交叉信息研究院,上海期智研究院)

人工智能主要有三条发展路线:符号主义、连接主义与行为主义。人工神经网络是连接主义的基石,也是最近几年深度学习取得突破进展的关键要素之一。它是受到生物大脑中信息处理模式的启发而提出的,最早可追溯到1943年由心理学家W. S. McCulloch与数理逻辑学家W. Pitts提出的神经元模型。当前,基于神经网络的人工智能技术正在给人类文明的方方面面带来革命性的改变:从语音、图像识别到引力波、黑洞探测,再到数据挖掘、自动驾驶、医学诊断、证券市场分析,等等。2018 年,计算机科学的最高奖——图灵奖也被授予三位人工智能科学家Yoshua Bengio,Geoffrey Hinton与Yann LeCun,以表彰他们在相关领域所做的突出贡献。

另一方面,量子力学是现代物理最重要的基础理论之一。其重要性广泛体现在我们的日常生活和科学探索中:从以电子计算机为代表的半导体工业到新奇的超导现象,从随处可见的化学电池到宇宙中神秘的黑洞,世间万物的变化规律都与量子力学密切相关。

然而,对量子系统尤其是量子多体系统的研究是非常困难的。实际研究中能够严格解析解决的问题很少,对于绝大部分问题的求解,我们只能依赖于数值方法。对于最一般的情形,数值方法需要消耗指数量级的计算资源,这对于规模较小的物理系统是可行的,但如果系统规模变大,这一指数级的要求在经典计算体系下就难以满足了。1998年诺贝尔化学奖得主Walter Kohn将这一问题描述为“指数墙(exponential wall)” 困难。为此,物理学家做了大量的努力,发展了一系列计算方法,著名的蒙特卡罗算法以及重正化群算法就是典型代表。但是这些方法并不是通用的,分别有着各自的适用条件。比如蒙特卡罗算法在应用于一些有阻挫系统时会出现符号问题,从而使得算法需要指数级的时间;而密度矩阵重正化群算法一般仅适用于一维低纠缠熵系统。

在人工智能领域中,一个类似的问题是维度灾难(curse of dimensionality)。维度灾难最早是由动态规划先驱、著名应用数学家 Richard E. Bellman提出,描述了高维与低维数据集截然不同的性质对计算问题带来的影响:随着数据维度增加,有限规模的数据在空间中的分布会逐渐稀疏,从而失去统计意义。这就要求在一般情况下,我们需要非常大的数据规模来获得数据集的统计特征,但是这会对计算资源带来严重负担。经过多年的发展,人工智能领域提出了许多用于处理高维问题的方法和工具。人工神经网络就是一个应用非常广泛的例子,可以在一定程度上缓解维度灾难带来的困难。简单来说,人工神经网络可以看成是一个普适的函数拟合器。通过调节网络参数,它可以用来拟合任何光滑函数。

由于指数墙困难和维度灾难的相似性,一个自然的想法是可以用神经网络处理复杂的量子问题。如可以用神经网络识别不同的量子物态以及研究它们之间的相变 (参见《物理》2017年第9期蔡子的专题文章)。另一方面,我们也可以用神经网络来表示量子态,其主要思想是把神经网络当成变分波函数,通过调节网络参数来逼近目标波函数(如多体系统的基态),进而求解所关心的物理问题。传统的量子多体变分波函数方法需要物理学家针对所求解的问题设计特定的变分函数,而神经网络量子态方法可以使用相对普适的结构,对于先验知识的依赖程度较低。此外,人工智能领域里发展的一些优化神经网络的方法也可以用于神经网络量子态,提高算法效率。

近年来,通过神经网络量子态的方法求解量子多体问题受到了广泛关注。当前,这是一个非常活跃的前沿研究方向。本文将介绍不同神经网络量子态的物理性质与典型应用场景,以及此方向的最新进展。所涉及的神经网络包括受限玻尔兹曼机,深度玻尔兹曼机,前馈神经网络,与循环神经网络等。典型应用包括:求解量子多体系统的基态及动力学演化,探测量子非定域性,量子层析,以及计算交错时序关联函数等。希望通过本文的讨论,读者能感受到神经网络量子态的魅力。

感兴趣的可以戳原文。

内容中包含的图片若涉及版权问题,请及时与我们联系删除