Internal Consistency and Self-Feedback in Large Language Models: A Survey

2024年07月19日
  • 简介
    大型语言模型(LLMs)被期望能够准确地做出回应,但通常会展现出推理不足或生成幻觉内容。为了解决这些问题,已经开始了一系列以“自我”为前缀的研究,例如自我一致性、自我改进和自我完善。它们有一个共同点:涉及LLMs评估和更新自身以缓解这些问题。然而,这些努力缺乏一个关于总结的统一视角,因为现有的调查主要关注分类而没有考虑这些工作背后的动机。 在本文中,我们总结了一个理论框架,称为内部一致性,它为缺乏推理和存在幻觉等现象提供了统一的解释。内部一致性基于采样方法评估LLMs的潜在层、解码层和响应层之间的连贯性。在内部一致性框架的基础上,我们引入了一个简化而有效的理论框架,能够挖掘内部一致性,称为自我反馈。自我反馈框架包括两个模块:自我评估和自我更新。这个框架已经在许多研究中得到应用。 我们通过任务和工作线路对这些研究进行了系统分类;总结了相关的评估方法和基准;并深入探讨了“自我反馈真的有效吗?”这个问题。我们提出了几个关键观点,包括“内部一致性的沙漏演化”、“一致性(几乎)就是正确性”的假设,以及“潜在和显式推理的悖论”。此外,我们还概述了未来研究的有前途的方向。我们已经开源了实验代码、参考文献和统计数据,可在\url{https://github.com/IAAR-Shanghai/ICSFSurvey}上获得。
  • 图表
  • 解决问题
    本文旨在解决大语言模型中存在的推理不足和虚幻内容生成问题,提出了一种名为Internal Consistency的理论框架,以评估LLMs的内在一致性,并引入了Self-Feedback框架来实现自我评估和自我更新。
  • 关键思路
    Internal Consistency框架评估LLMs的潜在层、解码层和响应层之间的一致性,以解决推理不足和虚幻内容生成问题。Self-Feedback框架由Self-Evaluation和Self-Update两个模块组成,用于实现自我评估和自我更新。
  • 其它亮点
    论文系统地分类了相关研究的任务和工作线路,并总结了相关的评估方法和基准。提出了几个关键观点,包括“Internal Consistency的沙漏演化”、“一致性(几乎)等同于正确性”假设和“潜在和显式推理的悖论”。开源了实验代码、参考文献和统计数据。
  • 相关研究
    最近的相关研究包括Self-Consistency、Self-Improve和Self-Refine等工作。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论