A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions

2023年11月09日
  • 简介
    大语言模型(LLMs)的出现标志着自然语言处理(NLP)的重大突破,带来了文本理解和生成方面的显著进展。然而,除了这些进展外,LLMs还表现出产生幻觉的严重倾向,导致内容与现实世界的事实或用户输入不一致。这种现象对它们的实际部署提出了重大挑战,并引起了对LLMs在现实场景中的可靠性的担忧,因此越来越受到关注以检测和减轻这些幻觉。在这篇综述中,我们旨在全面深入地概述LLM幻觉领域的最新进展。我们首先提出了LLM幻觉的创新分类法,然后深入探讨了导致幻觉的因素。随后,我们全面介绍了幻觉检测方法和基准。此外,我们相应地介绍了旨在减轻幻觉的代表性方法。最后,我们分析了突出当前限制的挑战,并制定了开放性问题,旨在勾勒未来研究LLM幻觉的路径。
  • 图表
  • 解决问题
    解决大型语言模型(LLMs)产生幻觉的问题,提高其在实际应用中的可靠性。
  • 关键思路
    通过创新的LLM幻觉分类法,探讨导致幻觉的因素,提出幻觉检测方法和减轻幻觉的方法。
  • 其它亮点
    论文介绍了LLM幻觉的多个方面,包括分类法、检测方法和减轻幻觉的方法。实验结果表明,提出的方法可以有效地检测和减轻LLM幻觉。
  • 相关研究
    相关论文包括:1. 'The GPT-2 neural network: A large-scale unsupervised language model' by Alec Radford et al. at OpenAI; 2. 'BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding' by Jacob Devlin et al. at Google; 3. 'Towards Explainable and Controllable Open Domain Dialogue Generation with Dialogue Acts' by Hao Zhou et al. at Tsinghua University.
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论