Uncertainty Estimation and Quantification for LLMs: A Simple Supervised Approach

2024年04月24日
  • 简介
    大型语言模型(LLMs)在许多任务中非常强大,但有时会产生不可靠或不准确的输出。为解决这个问题,本文研究了LLMs的不确定性估计和校准问题。我们首先阐述了LLMs的不确定性估计问题,然后提出了一种监督方法,利用标记数据集来估计LLMs的响应的不确定性。基于这个公式,我们说明了LLMs的不确定性估计与标准ML模型的不确定性估计之间的差异,并解释了为什么LLMs的隐藏激活包含不确定性信息。我们设计的方法有效地展示了利用隐藏激活增强各种任务的不确定性估计的好处,并在分布外设置中展示了强大的可转移性。此外,我们区分了不确定性估计任务和不确定性校准任务,并表明更好的不确定性估计模式会导致更好的校准性能。在实践中,我们的方法易于实现,并且适应不同级别的模型透明度,包括黑盒、灰盒和白盒,每个级别都展示了基于LLMs内部机制可访问性的强大性能。
  • 图表
  • 解决问题
    本论文研究如何解决大型语言模型(LLMs)生成不可靠或不准确输出的问题,提出了一种监督式的方法来估计LLMs的不确定性。
  • 关键思路
    论文提出利用标记数据集来估计LLMs响应的不确定性,利用LLMs的隐藏激活层来提高不确定性估计的准确性。
  • 其它亮点
    论文设计的方法在各种任务中展示了利用隐藏激活层提高不确定性估计的好处,并展示了在超出分布范围的情况下的强大性能。论文还区分了不确定性估计任务和不确定性校准任务,并展示了更好的不确定性估计模式会导致更好的校准性能。
  • 相关研究
    近期的相关研究包括《A Comprehensive Survey on Uncertainty Estimation in Deep Learning》和《Deep Ensembles: A Loss Landscape Perspective》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论