- 简介随着深度神经网络在高风险应用中的广泛应用,对它们决策过程的可解释性需求越来越大。概念学习模型试图学习高级别的“概念”——与人类理解相一致的抽象实体,从而为DNN架构提供可解释性。然而,在本文中,我们证明了目前的SOTA概念学习方法存在两个主要问题——概念保真度不足,模型不能在相似类别之间学习一致的概念,并且概念互操作性有限,模型不能将学习的概念推广到同一任务的新领域。鉴于这些问题,我们提出了一种新颖的跨领域概念学习自解释架构,它:i)结合了新的概念显著性网络进行代表性概念选择,ii)利用对比学习捕捉代表性的域不变概念,并且iii)使用基于原型的概念基础正则化来提高跨领域概念对齐。我们在四个广泛使用的真实世界数据集上展示了我们提出的方法的有效性。实证结果表明,我们的方法通过概念重叠度和领域适应性表现的概念互操作性改进了目前SOTA概念学习方法。
- 图表
- 解决问题解释深度神经网络决策过程的需求日益增长,而概念学习模型试图学习与人类理解相符的抽象概念,为DNN架构提供可解释性。但目前的SOTA概念学习方法存在概念保真度不足和概念互操作性有限的问题。
- 关键思路该论文提出了一个新的自我解释架构,通过引入概念显著性网络、对比学习和基于原型的概念基础规范化等方法,提高概念学习跨领域的效果。
- 其它亮点通过四个实际数据集的实验结果表明,该方法在概念重叠度和领域自适应性方面优于当前的SOTA概念学习方法。
- 近期相关研究包括:Concept Bottleneck Models、Explainability of Deep Learning Models、Interpretability of Machine Learning Models等。
沙发等你来抢
去评论
评论
沙发等你来抢