- 简介人们越来越依赖在线信息来源进行健康信息搜索,因为它们方便快捷,传统上使用搜索引擎如 Google 作为主要搜索工具。最近,生成式人工智能 (AI) 的出现使得基于大型语言模型 (LLM) 的对话代理(如 ChatGPT)成为健康信息搜索的可行替代方案。然而,尽管信任对于采纳在线健康建议至关重要,但影响人们对 LLM 动力的对话代理提供的健康信息的信任判断的因素仍不清楚。为了解决这个问题,我们进行了一项混合方法、受试者内实验研究 (N=21),探讨了与不同代理 (ChatGPT 和 Google) 进行三个健康搜索任务的交互如何影响参与者对搜索结果以及搜索代理本身的信任判断。我们的关键发现是:(a) 在健康信息搜索的背景下,参与者对 ChatGPT 的信任水平显著高于 Google;(b) 在健康相关信息和搜索代理之间存在显著的信任相关性,但只限于 Google;(c) 搜索任务的类型不会影响参与者的感知信任;(d) 参与者的先前知识、信息呈现方式以及使用搜索代理的互动方式是健康相关信息信任的关键因素。我们的研究揭示了使用传统搜索引擎与使用基于 LLM 的对话代理时信任感知的差异。我们强调了 LLM 在健康相关信息搜索环境中的潜在作用,它们在进一步搜索方面表现出色。我们为确保在生成式 AI 时代进行有效可靠的个人健康信息搜索提供了关键因素和考虑事项。
- 图表
- 解决问题探究使用LLM-powered conversational agents和传统搜索引擎Google搜索健康信息时,人们对搜索结果和搜索代理的信任判断因素是什么?
- 关键思路LLM-powered conversational agents在健康信息搜索中具有潜在的优势,但搜索代理的信任度与健康信息的信任度之间的关系只适用于Google。参与者的先前知识、信息呈现方式和搜索代理的交互方式是影响健康信息信任的关键因素。
- 其它亮点通过混合方法,进行了21个人的实验,比较了使用ChatGPT和Google搜索健康信息时的信任度。发现ChatGPT的信任度显著高于Google。实验结果还探讨了搜索任务类型、先前知识、信息呈现方式和搜索代理的交互方式等因素对信任度的影响。
- 最近的相关研究包括使用Chatbot进行健康信息搜索的研究,以及研究人们对在线健康信息的信任度和偏好的研究。
沙发等你来抢
去评论
评论
沙发等你来抢