Confidence Calibration and Rationalization for LLMs via Multi-Agent Deliberation

2024年04月14日
  • 简介
    不确定性估计是当前大型语言模型(LLMs)的一个重要问题,这些模型通常校准不良且过于自信,特别是在从人类反馈中进行强化学习(RLHF)时。与人类不同,人类的决策和信心不仅源于内在信念,而且可以通过日常观察进行调整。现有的LLMs校准方法侧重于估计或引出个体信心,而未充分利用“集体智慧”:多个LLMs之间的互动可以共同提高准确性和校准性。在这项工作中,我们提出了“协作校准”——一种后期无需训练的校准策略,利用多个工具增强的LLM代理在模拟的团体讨论过程中的协作和表达能力。我们在各个领域的生成性问答任务中展示了“协作校准”的有效性,展示了其在利用经过集体校准的信心评估的合理化方面的潜力,并提高了模型预测的可靠性。
  • 图表
  • 解决问题
    本文旨在解决当前大型语言模型(LLMs)存在的过度自信和不准确的问题,提出一种新的协作校准策略。
  • 关键思路
    本文提出的协作校准策略利用多个工具增强型LLM代理的协作和表达能力,在模拟的群体讨论过程中提高模型预测的可靠性。
  • 其它亮点
    本文的实验结果表明,协作校准策略在各个领域的生成型QA任务中都取得了良好的效果。该策略不需要后续训练,能够有效提高模型预测的准确性和可靠性。此外,本文提出的协作校准策略还具有一定的实用性。
  • 相关研究
    最近在这个领域中,还有一些相关研究,例如:《Deep Evidential Regression》、《Calibration of Neural ODEs》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论