Hallucination is Inevitable: An Innate Limitation of Large Language Models

2024年01月22日
  • 简介
    幻觉一直被广泛认为是大型语言模型(LLMs)的一个重要缺陷。已经有很多工作试图减少幻觉的程度。到目前为止,这些努力大多是经验性的,无法回答根本性问题,即是否可以完全消除幻觉。在本文中,我们正式定义了这个问题,并展示了在LLMs中消除幻觉是不可能的。具体而言,我们定义了一个形式化的世界,其中幻觉被定义为可计算的LLM与可计算的基本真实函数之间的不一致性。通过利用学习理论的结果,我们表明LLMs不能学习所有可计算的函数,因此总会产生幻觉。由于形式世界是真实世界的一部分,而真实世界比形式世界复杂得多,因此LLMs在真实世界中也不可避免地会产生幻觉。此外,对于受可证时间复杂度约束的真实世界LLMs,我们描述了易产生幻觉的任务,并通过实验证实了我们的说法。最后,利用形式世界框架,我们讨论了现有的幻觉减轻机制的可能机制和功效,以及对LLMs的安全部署的实际影响。
  • 图表
  • 解决问题
    论文试图证明大型语言模型(LLMs)中的幻觉无法完全消除,即使采用现有的幻觉缓解方法也无法完全解决。
  • 关键思路
    通过定义一个形式化的世界,将幻觉定义为可计算的LLM与可计算的基准真值函数之间的不一致性,并利用学习理论的结果证明LLM无法学习所有可计算的函数,因此总会产生幻觉。
  • 其它亮点
    论文描述了现有的幻觉缓解方法的机制和功效,并讨论了LLMs的安全部署的实际影响。此外,论文还描述了易产生幻觉的任务,并在实验中验证了这些任务的幻觉性。
  • 相关研究
    最近的相关研究包括《GPT-3的幻觉缓解》、《大型语言模型的幻觉问题》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论