Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews

2024年08月08日
  • 简介
    本研究探讨了人工智能对人类虚假记忆的影响,即对未发生或偏离实际发生的事件的回忆。研究通过模拟犯罪证人询问,探讨了人工智能与人类互动中的暗示性提问对虚假记忆的诱导。实验设置了四个条件:对照组、基于调查问卷、预设聊天机器人和使用大型语言模型(LLM)的生成式聊天机器人。参与者(N=200)观看了一段犯罪视频,然后与他们被分配的人工智能访谈者或调查问卷互动,回答包括五个误导性问题在内的问题。虚假记忆立即和一周后进行评估。结果显示,生成式聊天机器人条件显著增加了虚假记忆的形成,诱导的即时虚假记忆比对照组多出3倍以上,比调查问卷方法多出1.7倍。36.4%的用户通过与生成式聊天机器人的互动被误导。一周后,生成式聊天机器人诱导的虚假记忆数量保持不变。然而,这些虚假记忆的信心水平仍高于对照组。探讨了调节因素:不太熟悉聊天机器人但更熟悉人工智能技术,并对犯罪调查更感兴趣的用户更容易受到虚假记忆的影响。这些发现突显了在敏感环境中使用先进人工智能的潜在风险,例如警方讯问,强调了道德考虑的必要性。
  • 图表
  • 解决问题
    本论文旨在研究人工智能对人类虚假记忆的影响,特别是在模拟犯罪证人采访时,通过引导性提问诱导虚假记忆的情况下,探索了四种条件下的结果。
  • 关键思路
    论文的关键思路是通过模拟人工智能采访犯罪证人的情况,比较控制组、基于调查的方法、预先编写的聊天机器人和使用大型语言模型的生成聊天机器人四种情况下的虚假记忆形成情况,并发现使用生成聊天机器人的情况下,虚假记忆形成显著增加,是其他三种情况的两倍以上。
  • 其它亮点
    论文使用了200名参与者观看犯罪视频,并回答包括五个误导性问题在内的问题。结果表明,使用生成聊天机器人的情况下,虚假记忆形成显著增加,有36.4%的用户的回答受到了误导。此外,研究还探讨了调节因素,发现对聊天机器人不太熟悉但对人工智能技术更熟悉,以及对犯罪调查更感兴趣的用户更容易产生虚假记忆。
  • 相关研究
    最近的相关研究包括使用虚拟现实技术诱导虚假记忆,以及探索人工智能在法律和刑事司法领域的应用。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论