为什么 A.I. 聊天机器人说谎并表现得很奇怪? 照照镜子。
人工智能的先驱之一认为,聊天机器人通常会在使用它们的人的刺激下产生奇怪的结果。

当微软本月在其 Bing 搜索引擎中添加聊天机器人时,人们注意到它提供了各种关于 Gap、墨西哥夜生活和歌手 Billie Eilish 的虚假信息。
然后,当记者和其他早期测试人员与微软的人工智能进行了长时间的对话时。 机器人,它滑入了粗鲁和令人不安的令人毛骨悚然的行为。
自从 Bing 机器人的行为成为全球轰动以来,人们一直在努力理解这个新创造的古怪之处。 通常情况下,科学家们说人类应该受到很大的指责。
但对于新的聊天机器人能做什么以及它为什么会这样做,仍然有些神秘。 它的复杂性使其难以剖析,甚至更难预测,研究人员正在通过哲学镜头以及计算机科学的硬代码来看待它。
像任何其他学生一样,A.I. 系统可以从不良来源学习不良信息。 那奇怪的行为? 神经科学家、心理学家和计算机科学家 Terry Sejnowski 说,这可能是聊天机器人对使用它的人的语言和意图的扭曲反映,他帮助奠定了现代人工智能的知识和技术基础。
“当你越来越深入地研究这些系统时,就会发生这种情况,”索尔克生物研究所和加州大学圣地亚哥分校的教授 Sejnowski 博士说,他本月在科学杂志上发表了一篇关于这一现象的研究论文。 神经计算杂志。 “无论你在寻找什么——无论你想要什么——他们都会提供。”
谷歌本月还展示了一个新的聊天机器人 Bard,但科学家和记者很快意识到它在胡说八道关于 James Webb 太空望远镜。 旧金山初创公司 OpenAI 在 11 月推出聊天机器人热潮时推出了 ChatGPT,但它也并不总是说实话。
新的聊天机器人由科学家称为大型语言模型或 L.L.M. 的技术驱动。 这些系统通过分析从互联网上挑选出来的大量数字文本来学习,其中包括大量不真实、有偏见和其他有毒的材料。 聊天机器人学习的文本也有点过时,因为他们必须花费数月时间分析它才能让公众使用它们。
当它分析来自互联网的海量好坏信息时,一个 L.L.M. 学习做一件特定的事情:猜测一系列单词中的下一个单词。
它的运作就像自动完成技术的巨型版本,当您在智能手机上键入电子邮件或即时消息时,它会建议下一个词。 鉴于序列“汤姆克鲁斯是一个____”,它可能会猜测“演员”。
当您与聊天机器人聊天时,该机器人不仅仅利用它从互联网上学到的一切。 它利用了你对它说的一切以及它回应的一切。 它不仅仅是猜测句子中的下一个单词。 它正在猜测包括您的单词和它的单词的长文本块中的下一个单词。
对话时间越长,用户在不知不觉中对聊天机器人所说内容的影响就越大。 如果你想让它生气,它就会生气,Sejnowski 博士说。 如果你哄它变得令人毛骨悚然,它就会变得令人毛骨悚然。
对微软聊天机器人奇怪行为的惊恐反应掩盖了一个重点:聊天机器人没有个性。 它提供了一个非常复杂的计算机算法吐出的即时结果。
当微软限制与 Bing 聊天机器人的讨论时长时,它似乎减少了最奇怪的行为。 这就像从汽车试车手那里了解到,开得太快太久会烧坏引擎。 微软的合作伙伴 OpenAI 和谷歌也在探索控制机器人行为的方法。
但这种保证有一个警告:由于聊天机器人从如此多的材料中学习并以如此复杂的方式将它们组合在一起,研究人员并不完全清楚聊天机器人是如何产生最终结果的。 研究人员正在观察机器人做了什么,并学习限制这种行为——通常是在它发生之后。
微软和 OpenAI 已经决定,他们要想知道聊天机器人在现实世界中会做什么,唯一的方法就是放开它们——并在它们偏离方向时将它们收起来。 他们相信他们的大型公共实验值得冒险。
Sejnowski 博士将微软聊天机器人的行为比作厄里斯魔镜,这是 J.K. 的神秘神器。 罗琳的哈利波特小说和许多以她富有创造力的年轻巫师世界为蓝本的电影。
“Erised”是“desire”的倒写。 当人们发现镜子时,它似乎提供了真理和理解。 但事实并非如此。 它显示了任何凝视它的人根深蒂固的欲望。 有些人如果盯着看太久就会发疯。
“因为人类和 L.L.M. 都在相互映照,随着时间的推移,他们将趋向于一个共同的概念状态,”Sejnowski 博士说。
他说,记者开始在 Bing 聊天机器人中看到令人毛骨悚然的行为并不奇怪。 无论是有意还是无意,他们都在将系统推向一个不舒服的方向。 当聊天机器人接受我们的话并将其反馈给我们时,它们可以强化和放大我们的信念,并诱使我们相信它们告诉我们的内容。
Sejnowski 博士是 70 年代末和 80 年代初的一小群研究人员之一,他们开始认真探索一种称为神经网络的人工智能,它驱动着今天的聊天机器人。
神经网络是一种通过分析数字数据来学习技能的数学系统。 这与让 Siri 和 Alexa 识别您所说内容的技术相同。
2018 年左右,谷歌和 OpenAI 等公司的研究人员开始构建神经网络,从大量数字文本中学习,包括书籍、维基百科文章、聊天记录和其他发布到互联网上的内容。 通过在所有这些文本中找出数十亿个模式,这些 L.L.M. 学会了自己生成文本,包括推文、博客文章、演讲和计算机程序。 他们甚至可以进行对话。
这些系统是人性的反映。 他们通过分析人类发布到互联网上的文本来学习技能。
但这并不是聊天机器人产生有问题的语言的唯一原因,梅兰妮米切尔说,一位人工智能专家。 新墨西哥州独立实验室圣达菲研究所的研究员。
当它们生成文本时,这些系统不会逐字逐句地重复互联网上的内容。 它们通过组合数十亿种模式自行生成新文本。
即使研究人员仅根据同行评审的科学文献对这些系统进行训练,他们仍可能会产生科学上荒谬的陈述。 即使他们只从真实的文本中学习,他们仍然可能产生不真实的东西。 即使他们只从有益的文本中学习,他们仍然可能产生一些令人毛骨悚然的东西。
但这种保证有一个警告:由于聊天机器人从如此多的材料中学习并以如此复杂的方式将它们组合在一起,研究人员并不完全清楚聊天机器人是如何产生最终结果的。 研究人员正在观察机器人做了什么,并学习限制这种行为——通常是在它发生之后。
微软和 OpenAI 已经决定,他们要想知道聊天机器人在现实世界中会做什么,唯一的方法就是放开它们——并在它们偏离方向时将它们收起来。 他们相信他们的大型公共实验值得冒险。
Sejnowski 博士将微软聊天机器人的行为比作厄里斯魔镜,这是 J.K. 的神秘神器。 罗琳的哈利波特小说和许多以她富有创造力的年轻巫师世界为蓝本的电影。
“Erised”是“desire”的倒写。 当人们发现镜子时,它似乎提供了真理和理解。 但事实并非如此。 它显示了任何凝视它的人根深蒂固的欲望。 有些人如果盯着看太久就会发疯。
“因为人类和 L.L.M. 都在相互映照,随着时间的推移,他们将趋向于一个共同的概念状态,”Sejnowski 博士说。
他说,记者开始在 Bing 聊天机器人中看到令人毛骨悚然的行为并不奇怪。 无论是有意还是无意,他们都在将系统推向一个不舒服的方向。 当聊天机器人接受我们的话并将其反馈给我们时,它们可以强化和放大我们的信念,并诱使我们相信它们告诉我们的内容。
Sejnowski 博士是 70 年代末和 80 年代初的一小群研究人员之一,他们开始认真探索一种称为神经网络的人工智能,它驱动着今天的聊天机器人。
神经网络是一种通过分析数字数据来学习技能的数学系统。 这与让 Siri 和 Alexa 识别您所说内容的技术相同。
2018 年左右,谷歌和 OpenAI 等公司的研究人员开始构建神经网络,从大量数字文本中学习,包括书籍、维基百科文章、聊天记录和其他发布到互联网上的内容。 通过在所有这些文本中找出数十亿个模式,这些 L.L.M. 学会了自己生成文本,包括推文、博客文章、演讲和计算机程序。 他们甚至可以进行对话。
这些系统是人性的反映。 他们通过分析人类发布到互联网上的文本来学习技能。
但这并不是聊天机器人产生有问题的语言的唯一原因,梅兰妮米切尔说,一位人工智能专家。 新墨西哥州独立实验室圣达菲研究所的研究员。
当它们生成文本时,这些系统不会逐字逐句地重复互联网上的内容。 它们通过组合数十亿种模式自行生成新文本。
即使研究人员仅根据同行评审的科学文献对这些系统进行训练,他们仍然可能会产生科学上荒谬的陈述。 即使他们只从真实的文本中学习,他们仍然可能产生不真实的东西。 即使他们只从有益的文本中学习,他们仍然可能产生一些令人毛骨悚然的东西。
“没有什么能阻止他们这样做,”米切尔博士说。 “他们只是想制造一些听起来像人类语言的东西。”
人工智能专家早就知道这项技术会表现出各种意想不到的行为。 但他们并不总是就如何解释这种行为或聊天机器人的改进速度达成一致。
因为这些系统学习的数据远远超过我们人类所能理解的,甚至 A.I. 专家无法理解为什么他们会在任何特定时刻生成一段特定的文本。
Sejnowski 博士说,他相信从长远来看,新的聊天机器人有能力提高人们的效率,并为他们提供更好更快地完成工作的方法。 但这给构建这些聊天机器人的公司和使用它们的人都带来了警告:它们也可能使我们远离真相,进入一些黑暗的地方。
“这是未知领域,”Sejnowski 博士说。 “人类以前从未经历过这种情况。”
新闻链接:https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢