CONFINE: Conformal Prediction for Interpretable Neural Networks

2024年06月01日
  • 简介
    本文介绍了一种名为“Conformal Prediction for Interpretable Neural Networks (CONFINE)”的多功能框架,它生成具有统计上健壮的不确定性估计的预测集,而不是点预测,以增强模型的透明度和可靠性。现有的可解释性方法常常牺牲准确性,并缺乏可量化的预测不确定性度量。CONFINE不仅为个别预测提供基于示例的解释和置信度估计,而且还通过提高精度高达3.6%。我们定义了一个新的度量标准“正确效率”,用于评估包含准确标签的预测集的比例,并表明CONFINE的正确效率比原始准确性高出3.3%,与先前的方法相当或更好。CONFINE的边际和类条件覆盖表明其在涵盖医学图像分类到语言理解等任务方面的有效性。作为适用于任何预训练分类器的可调整的框架,CONFINE标志着深度学习在关键领域中透明且可信的应用的重大进展。
  • 图表
  • 解决问题
    CONFINE试图解决深度神经网络的黑盒问题,提高其可解释性和可靠性,特别是在解释性对医疗领域至关重要的情况下。
  • 关键思路
    CONFINE提供了一种生成预测集的方法,而不是点预测,以增强模型的透明度和可靠性。它使用统计上健壮的不确定性估计来提供基于示例的解释和置信度估计,同时提高了准确性。CONFINE还定义了一个新的度量标准——正确效率,用于评估包含正确标签的预测集的比例。
  • 其它亮点
    CONFINE不仅提供了基于示例的解释和置信度估计,还通过提高准确性来增强模型的可靠性。CONFINE的正确效率比原始准确性高达3.3%,并且在医学图像分类到语言理解等任务中表现良好。CONFINE适用于任何预训练分类器,是深度学习应用透明和可靠的重要进展。
  • 相关研究
    近期在这个领域中,还有一些相关研究,例如《Towards Explainable Deep Neural Networks by Leveraging the Internal Mechanism of Neurons》和《A Survey of Methods for Explaining Black Box Models》等。
许愿开讲
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论