如果说人工智能领域有一个常数,那就是夸大其词:总是有令人窒息的炒作和轻蔑的否定。偶尔盘点一下我们的立场是有帮助的。

当代人工智能的主要技术是深度学习 (DL) 神经网络,这是一种大规模的自学习算法,擅长识别和利用数据中的模式。从一开始,批评者就过早地认为神经网络已经遇到了不可逾越的墙——而且每次都被证明是一个暂时的障碍。在 1960 年代,他们无法求解非线性函数。这在 1980 年代随着反向传播而改变,但新墙是训练系统的难度。 1990 年代出现了简化程序和标准化架构的兴起,这使得训练更加可靠,但新的问题是缺乏训练数据和计算能力。

2012 年,当现代显卡可以在海量 ImageNet 数据集上进行训练时,DL 成为主流,轻松击败所有竞争对手。但随后批评者发现了一个新问题:DL 需要太多手工标记的数据进行训练。在过去的几年里,这种批评已经变得毫无意义,因为自我监督学习已经产生了令人难以置信的令人印象深刻的系统,例如不需要标记数据的 GPT-3。

今天看似不可逾越的墙是符号推理,即以代数或逻辑熟悉的方式操纵符号的能力。正如我们小时候所学的那样,解决数学问题涉及根据严格的规则逐步处理符号(例如,乘以最右边的列,将额外的值带到左边的列等)。 “代数思维”一书的作者和“重新启动 AI”的合著者(与 Ernie Davis 合著者)加里·马库斯(Gary Marcus)最近认为,深度学习无法取得进一步的进展,因为神经网络在这种符号操作方面存在困难。相比之下,许多深度学习研究人员相信深度学习已经在进行符号推理并将继续改进。

这场辩论的核心是对符号在智能中的作用的两种不同看法,包括生物和机械:一种认为符号推理必须从一开始就被硬编码,另一种认为它可以通过经验、机器和机器学习来学习。人类一样。因此,风险不仅在于最实际的前进方式,还在于我们应该如何理解人类智能——因此,我们应该如何追求人类水平的人工智能。

内容中包含的图片若涉及版权问题,请及时与我们联系删除