- 简介随着深度神经网络在高风险应用中的广泛应用,人们越来越需要了解其决策过程的可解释性。概念学习模型试图学习高级“概念”——与人类理解相一致的抽象实体,从而为DNN架构提供可解释性。然而,在本文中,我们证明了目前最先进的概念学习方法存在两个主要问题:概念保真度不足,模型无法在相似类别之间学习一致的概念,以及概念互操作性有限,模型无法将学习到的概念推广到相同任务的新领域。鉴于这些问题,我们提出了一种新颖的自我解释概念学习架构,跨领域地学习概念,其中:i)整合了新的概念显著性网络以进行代表性概念选择,ii)利用对比学习捕捉代表性的领域不变概念,iii)使用基于原型的概念基础规则化以提高跨领域概念对齐。我们在四个广泛使用的实际数据集上展示了我们提出的方法的有效性。实证结果表明,我们的方法通过概念重叠度和领域适应性表现两个方面提高了概念保真度和概念互操作性。
- 图表
- 解决问题本文旨在解决深度神经网络中概念学习的可解释性问题,即如何使模型的决策过程更具可解释性。具体而言,本文探讨了当前概念学习方法存在的概念保真度不足和概念互操作性有限的问题。
- 关键思路本文提出了一种自我解释的概念学习架构,包括新的概念显著性网络、对比学习和基于原型的概念基础规则化方法。这些方法可以提高模型的概念保真度和概念互操作性。
- 其它亮点本文在四个广泛使用的真实世界数据集上验证了提出的方法的有效性。实验结果表明,与当前最先进的概念学习方法相比,本文方法在概念重叠度和领域适应性方面均有所提高。
- 最近在该领域的相关研究包括《A survey of deep learning for scientific discovery》、《Explainable artificial intelligence: Understanding, visualizing and interpreting deep learning models》等。
沙发等你来抢
去评论
评论
沙发等你来抢