Enhancing Confidence Expression in Large Language Models Through Learning from Past Experience

2024年04月16日
  • 简介
    大型语言模型(LLMs)在各种下游任务中表现出了出色的性能,但它们可能会以自信的语气生成不准确或错误的信息。其中一个可能的解决方案是增强LLM的置信度表达能力,其中表达的置信度可以与所生成答案正确的真实概率相匹配。然而,利用LLM的内在能力或答案输出logits的信号都难以准确地捕捉LLM中的响应不确定性。因此,我们从认知诊断中汲取灵感,提出了一种从过去经验中学习(LePe)的方法来增强置信度表达能力。具体来说,我们首先确定了三个关键问题:(1)如何捕捉LLM的内在置信度?(2)如何教LLM表达置信度?(3)如何评估LLM的置信度表达?然后我们设计了LePe中的三个阶段来解决这些问题。此外,为了在构建训练数据时准确捕捉LLM的置信度,我们设计了一个完整的流程,包括问题准备和答案抽样。我们还使用Llama系列的LLM在四个数据集上进行实验,以验证我们提出的方法的有效性。
  • 图表
  • 解决问题
    提高大型语言模型的置信度表达能力
  • 关键思路
    利用学习从过去经验中提高大型语言模型的置信度表达能力
  • 其它亮点
    论文提出了一种名为LePe的方法,包括三个阶段来解决大型语言模型置信度表达的问题。通过设计完整的流程来捕捉模型的置信度,包括问题准备和答案采样。实验使用Llama家族的大型语言模型,在四个数据集上验证了方法的有效性。
  • 相关研究
    最近的相关研究包括使用贝叶斯方法来提高大型语言模型的置信度表达能力('Improving Calibration of Large-scale Classification Models via Stochastic Inference')以及使用不确定性估计来改进大型语言模型的置信度表达('Learning to Faithfully Rationalize by Construction')。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论