MCPNet: An Interpretable Classifier via Multi-Level Concept Prototypes

2024年04月13日
  • 简介
    近期后续和内在可解释的方法的进步显著提升了黑盒分类器模型的解释。这些方法通过后分析或在模型训练过程中整合概念学习来操作。虽然这些解释方法在弥合模型的潜在空间和人类解释之间的语义差距方面很有效,但是它们只能部分地揭示模型的决策过程。结果通常仅限于从最后一个特征映射中派生的高级语义。我们认为,缺乏对低和中级特征决策过程洞察力的解释既不完全忠实也不有用。为了解决这个问题,我们介绍了多级概念原型分类器(MCPNet),这是一种内在可解释的模型。MCPNet使用居中核对齐(CKA)损失和基于能量的加权PCA机制自主学习跨多个特征映射级别的有意义的概念原型,而且它不依赖预定义的概念标签。此外,我们提出了一种新的分类器范例,通过类感知概念分布(CCD)损失学习和对齐多级概念原型分布以进行分类目的。我们的实验表明,我们提出的MCPNet虽然适用于各种模型架构,但在保持分类准确性的同时提供了全面的多级解释。此外,它的基于概念分布的分类方法在少样本分类场景中展现出了改进的泛化能力。
  • 图表
  • 解决问题
    本论文的问题是解决黑盒分类器模型的解释问题,尤其是缺乏低中层特征的决策过程解释。同时,论文提出了一个新的分类器范例。
  • 关键思路
    论文提出了一个名为MCPNet的多层概念原型分类器,可以自主学习多个特征映射层次上的有意义的概念原型,通过Class-aware Concept Distribution (CCD) loss来学习和对齐多层概念原型分布以进行分类。
  • 其它亮点
    论文使用了Centered Kernel Alignment (CKA) loss和基于能量的加权PCA机制来学习概念原型,不需要预定义的概念标签。实验结果表明,MCPNet在多个模型架构上都具有适应性,同时保持分类准确性。其基于概念分布的分类方法在少样本分类场景中表现出更好的泛化能力。
  • 相关研究
    最近的相关研究包括使用激活热力图和可视化技术解释模型、使用梯度方法提取重要特征以及使用可解释性模型等。
许愿开讲
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论