近期,纽约大学心智、大脑和意识研究中心的主任 David Chalmers 汇报了一场非常有思考价值的研究成果,主要是从神经科学的角度讨论了大规模语言模型(Large Language Models,LLMs)是否具备潜在的意识和主观感受(Sentience)。Chalmers 以一条新闻展开讨论:今年六月谷歌的算法工程师 Lemoine 提出 - LaMDA2 实际上是具有意识和主观感受的,应该得到尊重。

LaMDA 是谷歌在 2021 年 I/O 大会上发布的一款用于对话的大规模语言模型,主要用于与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划应用于谷歌搜索和语音助手等产品中。而 Blake Lemoine 是负责LaMDA 聊天机器人开发的主要工程师,他在近几个月来一直在向谷歌高管表示人工智能聊天机器人是有感知的,能够以类似于人类的方式表达思想和感受,其原因源于他看到LaMDA对其自身权利意识、机器人伦理等问题所产生的令人信服的回应。与此同时 Lemoine 发布了他与 LaMDA 进行的几次对话的记录,并形容他认为 LaMDA 是具有意识的,因为它有感觉、情感和主观体验。

"that it is sentient because it has feelings, emotions and subjective experience."

而针对Lemoine的这一声张,谷歌高管组织了伦理学家和技术专家组成了研究小组对 LaMDA 进行了分析,表示没有证据可以支持他关于LaMDA有意识的主张。

不过玩笑归玩笑,虽然我们知道要让 AI 像人一样具有意识和主观感觉还有很长很长的路,但这确实是一个有趣的(哲学)问题。

阅读详情

内容中包含的图片若涉及版权问题,请及时与我们联系删除