- 简介大型语言模型(LLMs)经常会生成虚构的非事实内容,即幻觉。现有的基于检索增强的幻觉检测方法通常将其作为分类任务来处理,根据其与检索到的证据的一致性来评估幻觉。然而,这种方法通常缺乏对这些评估的详细解释,并且不评估这些解释的可靠性。此外,检索系统的不足可能导致检索到不相关或部分相关的证据,从而损害检测过程。此外,虚构检测需要分析多个证据,但当前系统通常将所有证据视为同等重要,而没有考虑它们与内容的相关性。为了解决这些挑战,我们引入了一个具有70亿参数的基于批判的幻觉评判系统Halu-J。Halu-J通过选择相关证据并提供详细的批判来增强幻觉检测。我们的实验表明,Halu-J在多证据幻觉检测方面优于GPT-4o,并在批判生成和证据选择方面与其能力相匹配。我们还介绍了ME-FEVER,这是一个专门设计用于多证据幻觉检测的新数据集。我们的代码和数据集可以在https://github.com/GAIR-NLP/factool中找到。
-
- 图表
- 解决问题本文旨在解决语言模型存在的虚构内容问题,即幻觉问题。同时,该论文试图提出一种新的方法来检测幻觉,该方法可以选择相关证据并提供详细的评价。
- 关键思路本文提出了一种基于批判的幻觉判断方法,该方法可以选择相关证据并提供详细的评价。相比当前的研究,这种方法更加细致,可以更好地检测幻觉。
- 其它亮点本文提出了一个名为Halu-J的基于批判的幻觉判断模型,该模型具有70亿个参数。此外,本文还介绍了一个新的数据集ME-FEVER,用于多证据幻觉检测。实验结果表明,Halu-J在多证据幻觉检测方面优于GPT-4o,并且在批判生成和证据选择方面与其相当。本文的代码和数据集可以在GitHub上找到。
- 最近的相关研究包括基于检索的幻觉检测方法和基于生成模型的幻觉检测方法。相关论文包括“Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks”和“Detecting and Correcting Hallucination in Conversation”。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流