HalluVault: A Novel Logic Programming-aided Metamorphic Testing Framework for Detecting Fact-Conflicting Hallucinations in Large Language Models

2024年05月01日
  • 简介
    大型语言模型(LLMs)已经改变了语言处理的格局,但它们在安全、隐私和生成看似连贯但事实不准确的输出(通常称为幻觉)方面面临着重大挑战。其中一个特别紧迫的问题是事实冲突幻觉(FCH),即LLMs生成的内容直接与已经确立的事实相矛盾。解决FCH是一项艰巨的任务,因为存在两个主要障碍:首先,自动构建和更新基准数据集具有挑战性,因为当前的方法依赖于不涵盖FCH各种场景的静态基准。其次,验证LLMs输出的推理过程本质上是复杂的,特别是涉及复杂逻辑关系时更加困难。 为了解决这些障碍,我们提出了一种创新的方法,利用逻辑编程增强变态测试,以检测事实冲突幻觉(FCH)。我们的方法从维基百科等来源收集数据,通过逻辑推理扩展数据以创建多样化的测试用例,通过结构化提示评估LLMs,并使用语义感知评估机制验证其连贯性。我们的方法在涵盖九个领域的六个不同LLMs上生成测试用例并检测幻觉,揭示幻觉率在24.7%至59.8%之间。关键观察结果表明,LLMs在处理时间概念、处理超出分布知识以及展示逻辑推理能力方面存在挑战和不足。这些结果强调了我们的工具生成基于逻辑的测试用例在触发和识别幻觉方面的有效性。这些发现强调了社区内不断合作努力以检测和解决LLMs幻觉的必要性。
  • 作者讲解
  • 图表
  • 解决问题
    如何解决大型语言模型(LLMs)生成与事实相矛盾的内容的问题?
  • 关键思路
    使用逻辑编程增强变形测试来检测事实冲突幻觉(FCH),并通过语义感知评估机制验证LLMs的一致性。
  • 其它亮点
    使用逻辑编程生成多样化的测试用例,评估六种不同LLMs在九个领域的表现,发现幻觉率在24.7%至59.8%之间。研究发现LLMs在处理时间概念、处理分布式知识和逻辑推理能力方面存在挑战。
  • 相关研究
    最近的相关研究包括《GPT-3的幻觉:从小错误到大问题》、《对抗性攻击下的自然语言处理:一份综述》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问