在谷歌 I/O 大会(谷歌开发的新部件和技术的年度性展示会)上,该公司 CEO 桑达尔·皮查伊(Sundar Pichai)透露了他的公司在“自然语言理解方面的最新突破”:一个名为 LaMDA 的、可以与人交谈任何话题的聊天机器人。
他随后做了一个演示,让 LaMDA 用自然语言回答了有关冥王星的问题。这次交流展示了一种获取信息的便捷方式——一种替代搜索的方式。LaMDA 不是在搜索框中输入内容查询后列出结果,而是扮演着矮行星并参与了这场对话。
- (皮查伊)告诉我,如果我去参观(这个星球),我会看到什么
- 你会看到一个巨大的峡谷、一些冰冻的冰山、间歇泉、和一些陨石坑
- 听起来很美
- 我向你保证,这里值得一游。但是,你需要带上你的外套,因为这里真的很冷
但批评人士开始反击,他们认为这种方法是错误的。用自然语言向计算机提问并得到答案,可能会将复杂性隐藏在不应有的权威外表之下。
华盛顿大学的奇拉格·沙阿(Chirag Shah )说:“我们被自己能做的事情所困扰;我们并没有考虑自己应该做什么。
3 月 14 日,沙阿和他的华盛顿大学同事艾米丽 M.本德(Emily M. Bender)(研究计算语言学和自然语言处理中的伦理问题)发表了一篇论文《定位搜索》(Situating Search),批评了他们所目睹的急于用自然语言模型去处理它们本身并不合适的任务的现象。
他们尤其担心使用语言模型进行搜索可能会导致更多的错误信息和两极分化的辩论。
在《星际迷航》的幻想里——你有一台无所不知的电脑,你可以问问题,它就会给你答案——但实际上这不是我们能提供的,也不是我们需要的,“论文的合著者本德说,而这篇强调大型语言模型的危险性的论文最终导致蒂姆尼特·格布鲁(Timnit Gebru)被迫离开了谷歌。”
她认为,这不仅仅是因为今天的技术还不能胜任这项工作。“我认为这一愿景有问题,”她说,“说我们获取信息的方式就是询问专家并让他们直接为我们提供信息,这种说法是幼稚的。”
谷歌已经在使用语言模型来改进其现有的搜索技术,帮助它更准确地解释用户查询。但一些人认为,语言模型可以用来彻底改变搜索的方式,LaMDA 只是一个例子。
去年,谷歌的研究员唐·梅茨勒(Don Metzler)和他的同事们提出,搜索可以被重新想象为用户和语言模型之间的双向对话,计算机可以像人类专家一样回答问题。
谷歌还在开发一种被称为多任务统一模型或 MUM 的技术。它建立在语言模型之上,旨在通过汇集来自不同来源的信息来回应用户的查询。
谷歌搜索团队的通讯经理简·帕克(Jane Park)说:“我们在推进语言理解方面投入了大量资金,因为它让像谷歌搜索等产品对人们更有用。”
但她表示,谷歌还没有任何将这项新研究转化为产品的计划:“我们同意在语言理解方面存在一些公开的挑战,这就是为什么我们总体上采取非常谨慎的方法。”
盲目的模仿
大型人工智能模型可以在模仿自然语言方面表现出超凡的真实感。它们接受了成百上千的书籍和大部分的互联网内容训练,吸收了大量的信息——这塑造了它的思维方式。
为什么不把它们作为一种可以综合来自多源的反应、并将信息打包成容易理解的句子的搜索引擎呢?
问题就在于,语言模型只是在盲目模仿。它们可以非常准确地预测句子或对话中最有可能出现的单词或短语。
但是,尽管皮查伊随口声称他的人工智能“理解”许多话题,但事实上语言模型并不知道自己在说什么,更无法解释他们的话所传达的内容。
这很重要,因为对话式人工智能可以改变我们对与机器交流的看法。本德说,在方框中输入搜索查询然后得到一列回复,就像在与电脑互动。但语言模型则有所不同。
“但假如我是在和一台机器进行对话,那么隐喻是机器能理解我在说什么。” 她说,“所以我将在这种背景下去解读机器的反应。”
沙阿说,我们已经看到用户对搜索结果不加批判地信任,“自然语言交互让这种情况变得更加明显。”
使用人工智能来合成和打包对搜索查询的回应是一种部分趋势,这种趋势始于使用所谓的直接答案或片段——显示单一答案或是在简短的摘录上方显示相关的文档链接。
理论上,这些可以给你一眼就看到的信息,省去了你自己阅读较长的文档的麻烦。
本德并不是在所有情况下都反对使用语言模型来进行问答交流的。她的厨房里就有一个谷歌助理(Google Assistant),她用它来转换食谱中的计量单位。
她说:“有时候,能用语音来获取信息会超级方便。”
但沙阿和本德也给出了去年出现的一个更令人不安的例子,当时谷歌对“印度最丑陋的语言是什么?”这个问题的回答是卡纳达语,这是印度南部约 4000 万人都在使用的语言。
没有简单的答案
这里有一个难题。直接的答案可能很方便,但它们也往往是不正确的、无关的,甚至令人反感。德国魏玛包豪斯大学(Bauhaus University in Weimar)的本诺·斯坦(Benno Stein)说,它们可以掩盖现实世界的复杂性。
2020 年,斯坦和他在莱比锡大学的同事马丁·波特斯特(Martin Potthast),以及德国哈勒-维滕贝格的马丁·路德大学的马蒂亚斯·哈根(Matthias Hagen)发表了一篇论文《直接回答的困境》(The Dilemma of the Direct Answer),强调了直接答案的问题。“大多数问题的答案都是视情况而定,”马蒂亚斯说,“这很难让搜索的人认同。”
斯坦和他的同事们认为,搜索技术已经从通过提供与搜索查询相匹配的文档列表等技术来组织和过滤信息,转为以对问题的单一答案的形式进行推荐。他们认为这一步走得太远了。”
同样,问题也不在于现有技术的限制。即使有完美的技术,我们也不会得到完美的答案。斯坦说:“我们不知道什么是好的答案,因为这个世界是复杂的,但当我们看到这些直接答案时,我们就不再这么想了。”
沙阿认同,向人们提供一个单一的答案可能会有问题,因为这些信息的来源和他们之间的任何分歧都是隐藏的,他说:“这真的取决于我们是否完全信任这些系统。”
沙阿和本德对他们所预期的问题提出了一些解决方案。一般来说,搜索技术应该支持当今人们使用搜索引擎的各种方式,其中许多都不是以直接答案方式提供的。
沙阿说,人们经常使用搜索功能来探索他们甚至可能没有具体问题的主题。在这种情况下,简单地提供一个文档清单会更有用。
明确信息来源很重要,特别是当人工智能从多个来源获取信息时。一些语音助手已经这样做了,譬如在回答时会先说一句 “这是我在维基百科上发现的东西。”
未来的搜索工具也应该有能力说出:“这是个愚蠢的问题,”沙阿说。这将有助于该技术避免在查询中转述冒犯性或有偏见的论点。
斯坦建议,基于人工智能的搜索引擎可以给出答案的原因,给出不同观点的利弊。
然而,许多这些建议只是更突显了斯坦和他的同事们所发现的难题:任何降低便利性的东西对大多数用户的吸引力都会降低。“如果你不点击进入谷歌搜索结果的第二页,你就不会想阅读不同的论点。”斯坦说。
谷歌表示,它已经意识到这些研究人员提出的许多问题,并正在努力开发人们认为有用的技术。但谷歌是一个价值数十亿美元的服务的开发商。最终,它将构建能够吸引最多人的工具。
斯坦希望,这不会完全取决于方便性。“搜索对我们和社会都是如此重要,”他说。
-End-
支持:
原文:https://www.technologyreview.com/2022/03/29/1048439/chatbots-replace-search-engine-terrible-idea/
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢