- 简介大型语言模型(LLMs)在推理时经常出现过度自信的问题,特别是在适应具有有限数据的下游领域特定任务时。先前的研究通过在LLMs训练后采用近似贝叶斯估计来解决这个问题,使它们能够量化不确定性。然而,这种后训练方法的性能受到训练期间学习的参数的严重限制。在本文中,我们超越了后训练贝叶斯化,提出了一种通过反向传播进行贝叶斯低秩适应(BLoB)的算法,该算法在整个微调过程中连续和联合调整LLM参数的均值和协方差。我们的实证结果验证了BLoB在泛化和不确定性估计方面的有效性,当在内部分布和外部分布数据上进行评估时。
- 图表
- 解决问题论文旨在解决LLMs在下游任务中的过度自信问题,提出了一种能够连续调整LLMs参数均值和协方差的算法BLoB。
- 关键思路BLoB算法通过连续调整LLMs参数均值和协方差来解决LLMs在下游任务中的过度自信问题,并且相比于之前的后训练贝叶斯化方法,BLoB算法可以在整个微调过程中进行参数调整。
- 其它亮点论文的实验结果验证了BLoB算法在泛化和不确定性估计方面的有效性,同时也提供了一些值得深入研究的方向。
- 最近在这个领域中,一些相关研究包括:《Simple and Principled Uncertainty Estimation with Deterministic Deep Learning via Distance Awareness》、《Deep Ensembles: A Loss Landscape Perspective》等。
沙发等你来抢
去评论
评论
沙发等你来抢