Detecting Hallucinations in Retrieval-Augmented Generation via Semantic-level Internal Reasoning Graph

2026年01月06日
  • 简介
    基于大语言模型(LLM)的检索增强生成(RAG)系统已取得显著进展,能够有效减少事实性幻觉,但仍然存在忠实性幻觉问题。以往检测忠实性幻觉的方法要么忽略了对模型内部推理过程的捕捉,要么对这些特征的处理过于粗糙,导致判别器难以有效学习。本文提出一种基于语义级内部推理图的忠实性幻觉检测方法。具体而言,我们首先将逐层相关性传播算法从词元级别扩展到语义级别,基于归因向量构建内部推理图,从而更准确地表征语义层面的依赖关系。此外,我们设计了一个基于小型预训练语言模型的通用框架,用于利用大语言模型推理过程中的依赖关系进行训练与幻觉检测,并可通过设定阈值动态调整正确样本的通过率。实验结果表明,我们的方法在RAGTruth和Dolly-15k数据集上相较于当前最先进的基线方法取得了更优的整体性能。
  • 作者讲解
  • 图表
  • 解决问题
    论文旨在解决检索增强生成(RAG)系统中仍然存在的忠实性幻觉(faithfulness hallucinations)问题。尽管RAG在减少事实性幻觉方面取得了进展,但模型仍可能生成与检索内容不一致的回应,即产生忠实性幻觉。该问题尚未被充分解决,尤其是现有方法未能有效捕捉大语言模型(LLM)内部的推理过程,导致检测器难以准确识别幻觉。
  • 关键思路
    提出一种基于语义级内部推理图的方法来检测忠实性幻觉。关键创新在于将逐层相关性传播(Layer-wise Relevance Propagation, LRP)从词元级别扩展到语义级别,构建基于归因向量的内部推理图,从而更真实地反映语义依赖关系。此外,设计了一个通用框架,利用小型预训练语言模型学习LLM推理中的依赖结构,并通过可调阈值动态控制正确样本的通过率,提升检测灵活性与性能。
  • 其它亮点
    实验在RAGTruth和Dolly-15k两个基准数据集上进行,结果表明该方法在整体性能上优于当前最先进的基线方法。框架具有良好的通用性和可解释性,能够揭示LLM内部的语义推理路径。虽然论文未明确提及代码是否开源,但其方法为后续研究提供了新的分析视角。值得进一步探索的方向包括将该推理图应用于模型训练阶段以减轻幻觉,以及扩展至多模态RAG系统。
  • 相关研究
    1. “Faithful Chain-of-Thought Reasoning via Self-Consistency” 2. “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks” 3. “Probing Hallucinations in Large Language Models with Attribution Methods” 4. “Layer-wise Relevance Propagation: A Practical Guide for Neural Network Interpretability” 5. “RAGTruth: Evaluating the Factual Consistency of Retrieval-Augmented Text Generation”
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问