CoProNN: Concept-based Prototypical Nearest Neighbors for Explaining Vision Models

2024年04月23日
  • 简介
    越来越多的可解释人工智能(XAI)研究证据表明,良好的解释应该针对个别任务,并与任务相关的概念有关。然而,构建特定任务的解释很耗时,需要领域专业知识,这很难融入通用的XAI方法中。一种有前途的方法是基于语义概念的组合性,以与领域专家共同设计有用的任务特定解释。在这里,我们提出了一种新方法,使得领域专家能够通过自然语言直观地快速创建基于概念的计算机视觉任务解释。利用深度生成方法的最新进展,我们提出通过文本到图像方法生成基于视觉概念的原型。然后,利用简单的k最近邻例程,使用这些原型来解释计算机视觉模型的预测。CoProNN的模块化设计易于实现,易于适应新的任务,并允许在更强大的模型发布时替换分类和文本到图像模型。该方法可以与预定义原型的基础真实数据进行离线评估,这些原型也可以基于视觉概念轻松地传达给领域专家。我们展示了我们的策略在粗粒度图像分类任务上与其他基于概念的XAI方法竞争得非常好,并且在更具挑战性的细粒度任务上甚至可能胜过这些方法。我们通过定性和定量用户研究展示了我们的方法在人机协作设置中的有效性。我们的所有代码和实验数据都可以在我们的GitHub存储库中找到。
  • 图表
  • 解决问题
    论文旨在解决解释性人工智能(XAI)中构建任务特定解释的困难和耗时问题,提出了一种基于语义概念组合的方法。
  • 关键思路
    通过使用深度生成方法生成视觉概念原型,然后通过简单的k最近邻例程解释计算机视觉模型的预测,以便通过自然语言直观地为计算机视觉任务创建基于概念的解释。
  • 其它亮点
    该方法具有模块化设计,易于实现和适应新任务,并允许替换分类和文本到图像模型。实验结果表明,该方法在粗粒度图像分类任务上表现良好,并且在更具挑战性的细粒度任务上甚至可能优于其他基于概念的XAI方法。此外,该方法在人机协作设置中的定性和定量用户研究中也表现出有效性。
  • 相关研究
    最近的相关研究包括“Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors”和“Explainable AI: A Brief Survey of Methods, Evaluation, and Applications”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论