谷歌、微软和百度正在使用 ChatGPT 等工具将互联网搜索变成对话。 这将如何改变人类与机器的关系?
在聊天机器人 ChatGPT 以其像人类一样写文章和回答问题的不可思议的能力震惊世界几个月后,人工智能 (AI) 开始出现在互联网搜索领域。
全球三大搜索引擎(谷歌、必应和百度)上周表示,他们将把 ChatGPT 或类似技术整合到他们的搜索产品中,让人们能够直接获得答案或参与对话,而不仅仅是接收链接列表 输入单词或问题后。 这将如何改变人们与搜索引擎的关联方式? 这种形式的人机交互是否存在风险?
微软的 Bing 使用与 ChatGPT 相同的技术,该技术由加利福尼亚州旧金山的 OpenAI 开发。 但是这三个公司都在使用大型语言模型(LLM)。 LLM通过回应他们在大型数据库中遇到的文本的统计模式来创建令人信服的句子。 谷歌的人工智能搜索引擎 Bard 于 2 月 6 日宣布,目前正由一小群测试人员使用。 微软的版本现在可以广泛使用,尽管有一个等待不受限制的访问列表。 百度的 ERNIE Bot 将于 3 月推出。
在这些公告发布之前,一些较小的公司已经发布了人工智能搜索引擎。 “搜索引擎正在发展到这种新状态,你可以真正开始与他们交谈,并像与朋友交谈一样与他们交谈,”去年 8 月与人共同创立了 Perplexity 的旧金山计算机科学家 Aravind Srinivas 说,“ 基于 LLM 的搜索引擎,提供会话英语答案。”
改变信任
与传统的互联网搜索相比,对话的强烈个人性质可能有助于影响人们对搜索结果的看法。 瑞士苏黎世大学的计算社会科学家亚历山德拉·乌尔曼 (Aleksandra Urman) 表示,人们可能天生就更相信参与对话的聊天机器人的答案,而不是来自独立搜索引擎的答案。
位于盖恩斯维尔的佛罗里达大学的一个团队在 2022 年进行的一项研究发现,对于与亚马逊和百思买等公司使用的聊天机器人进行交互的参与者,他们认为对话越像人类,他们就越信任该组织。
这可能是有益的,使搜索更快、更顺畅。 但鉴于 AI 聊天机器人会出错,增强的信任感可能会产生问题。 谷歌的巴德在自己的技术演示中回答了一个关于詹姆斯韦伯太空望远镜的问题,自信地回答错误。 ChatGPT 倾向于为它不知道答案的问题创建虚构的答案,这被该领域的人称为幻觉。
谷歌发言人表示,巴德的错误“凸显了严格测试过程的重要性,我们本周将通过我们的可信测试程序启动这一过程”。 但一些人推测,如果这些错误被发现,而不是增加信任,可能会导致用户对基于聊天的搜索失去信心。 “早期感知会产生非常大的影响,”加利福尼亚州山景城的计算机科学家 Sridhar Ramaswamy 说,他是 Neeva 的首席执行官,Neeva 是 1 月份推出的 LLM 驱动的搜索引擎。 由于投资者担心未来并抛售股票,这一错误使谷歌的市值蒸发了 1000 亿美元。
缺乏透明度
使不准确问题更加复杂的是相对缺乏透明度。 通常,搜索引擎会向用户展示他们的来源——链接列表——并让他们决定他们信任什么。 相比之下,很少有人知道法学硕士训练的是什么数据——是大英百科全书还是八卦博客?
(人工智能搜索)将如何运作是完全不透明的,如果语言模型失灵、产生幻觉或传播错误信息,这可能会产生重大影响,”乌尔曼说。
Urman 说,如果搜索机器人犯了足够多的错误,那么它们不仅不会增加对它们对话能力的信任,反而有可能颠覆用户对搜索引擎作为公正的真理仲裁者的看法。
她进行了一项尚未发表的研究,表明目前的信任度很高。 她研究了人们如何看待谷歌用来增强搜索体验的现有功能,这些功能被称为“特色片段”,其中被认为与搜索特别相关的页面摘录出现在链接上方,以及“知识面板”(摘要 Google 自动生成以响应有关个人或组织的搜索)。 在 Urman 的调查中,近 80% 的人认为这些特征是准确的,大约 70% 的人认为它们是客观的。
巴黎数据科学平台 Hugging Face 的首席伦理学家 Giada Pistilli 表示,聊天机器人驱动的搜索模糊了机器和人类之间的区别,该平台促进负责任地使用人工智能。 她担心公司采用 AI 进步的速度有多快:“我们总是在没有任何控制或教育框架的情况下将这些新技术抛给我们,以了解如何使用它们。”
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢