毫无疑问,人类有自己的意识。在某种意义上,这种「意识」甚至可以被视为人类智能的内涵之一。

随着「人工智能」(Artificial Intelligence)的深入发展,「AI 能否拥有意识」也渐渐成为科学家们心中的一个疑问,「意识」也被视为衡量 AI 是否智能的标准之一。

例如,2月中旬,OpenAI 的首席科学家 IIya Sutskever 就曾在推特上发起对 AI 意识的讨论。当时,他说:

如今的大型神经网络可能已初具意识。

他的观点立即引起了一众 AI 大咖的讨论。针对 IIya Sutskever 的见解,图灵奖得主、Meta AI 首席科学家 Yann LeCun 首先就抛出了反对意见,给出一个直截了当的观点:「Nope.」(不。)Judea Pearl 也力挺 Lecun,表示现有的深度神经网络还无法「深度理解」某些领域。

唇枪舌战几回合后,Judea Pearl 称:

……事实上我们都没有一个关于「意识」的正式定义。我们唯一能做的也许就是向历代研究意识的哲学家请教...

这是一个关于源头的问题。如果需要讨论「AI 意识」,那么:什么是「意识」?拥有「意识」意味着什么?要回答这些问题,光有计算机知识是远远不够的。

事实上,关于「意识」的讨论最早可以追溯到古希腊「轴心时代」。自那时起,「意识」作为人的认识论的本质就已成为后代哲学家们无法回避的议题。关于 AI 意识的讨论兴起后,曾任 OpenAI 研究科学家的学者 Amanda Askell 也就该话题作了一番有趣的见解。

图注:Amanda Askell,她的研究方向是 AI 与哲学的交叉

 

在她的最新博文《My mostly boring views about AI consciousness》中,Askell 探讨了现象学意义上的「现象意识」(phenomenal consciousness),而非「自觉意识」(access consciousness)。现象意识强调主体的体验过程,侧重感觉、经验,被动注意;而自觉意识则强调主体的主观能动性,它强调主体在主观上的主动留意。比如,你在轻松的音乐下写作业,你可以感受到背景中的音乐(现象意识),但不会留意它的具体内容;作业对你而言是主观留意的(自觉意识),你真切地知道你到底在做什么。这有点像计算机视觉和认知科学中常用到的两种不同的注意力机制。现象意识对应「bottom-up」,而自觉意识对应「top-down」。

图注:一眼就可以注意到书本的大字部分是「现象意识」;意识到其中的细节则属于「自觉意识」。

Askell 认同更高级的智能和自觉意识更相关,这也可以将人类和其它动物有效地区分开来,但她「更感兴趣的是老虎与岩石的区别,而不是人与老虎的区别」,而现象意识足以完成这样的区分。而且她认为,如果出现了「现象意识」,就意味着一些道德和伦理问题也将随之出现。这也是她认为研究意识具有重要意义的原因所在。

内容中包含的图片若涉及版权问题,请及时与我们联系删除