- 简介大型语言模型(LLMs)在各种下游任务中表现出了出色的性能,但它们可能会以自信的语气生成不准确或错误的信息。其中一个可能的解决方案是增强LLM的置信度表达能力,其中表达的置信度可以与所生成答案正确的真实概率相匹配。然而,利用LLM的内在能力或答案输出logits的信号都难以准确地捕捉LLM中的响应不确定性。因此,我们从认知诊断中汲取灵感,提出了一种从过去经验中学习(LePe)的方法来增强置信度表达能力。具体来说,我们首先确定了三个关键问题:(1)如何捕捉LLM的内在置信度?(2)如何教LLM表达置信度?(3)如何评估LLM的置信度表达?然后我们设计了LePe中的三个阶段来解决这些问题。此外,为了在构建训练数据时准确捕捉LLM的置信度,我们设计了一个完整的流程,包括问题准备和答案抽样。我们还使用Llama系列的LLM在四个数据集上进行实验,以验证我们提出的方法的有效性。
- 图表
- 解决问题提高大型语言模型的置信度表达能力
- 关键思路利用学习从过去经验中提高大型语言模型的置信度表达能力
- 其它亮点论文提出了一种名为LePe的方法,包括三个阶段来解决大型语言模型置信度表达的问题。通过设计完整的流程来捕捉模型的置信度,包括问题准备和答案采样。实验使用Llama家族的大型语言模型,在四个数据集上验证了方法的有效性。
- 最近的相关研究包括使用贝叶斯方法来提高大型语言模型的置信度表达能力('Improving Calibration of Large-scale Classification Models via Stochastic Inference')以及使用不确定性估计来改进大型语言模型的置信度表达('Learning to Faithfully Rationalize by Construction')。
沙发等你来抢
去评论
评论
沙发等你来抢