Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models

2024年04月03日
  • 简介
    我们提出了DiffExplainer,这是一个新颖的框架,利用语言视觉模型实现了多模态全局可解释性。DiffExplainer采用了以优化的文本提示为条件的扩散模型,合成最大化分类器输出和隐藏特征的图像,从而提供了一个用于解释决策的视觉工具。此外,生成的视觉描述的分析允许自动识别偏见和虚假特征,而不是传统方法通常依赖于手动干预。语言视觉模型的跨模态可转移性也使得以更符合人类解释的方式,即通过文本来描述决策成为可能。我们进行了全面的实验,包括广泛的用户研究,证明了DiffExplainer在以下两个方面的有效性:1)生成高质量的图像来解释模型决策,超越了现有的激活最大化方法;2)自动识别偏见和虚假特征。
  • 图表
  • 解决问题
    本文旨在提出一种新的框架DiffExplainer,利用语言-视觉模型实现多模态全局可解释性。该框架通过优化文本提示,使用扩散模型来合成图像,从而最大化分类器的类输出和隐藏特征,为解释决策提供视觉工具。此外,生成的视觉描述的分析允许自动识别偏见和虚假特征,而传统方法往往依赖于手动干预。
  • 关键思路
    DiffExplainer框架结合了语言-视觉模型和扩散模型,提供了一种新的方法来解释决策。它可以生成高质量的图像,解释模型的决策,同时自动识别偏见和虚假特征。
  • 其它亮点
    本文通过实验展示了DiffExplainer框架的有效性,包括生成高质量的图像来解释模型决策,超过了现有的激活最大化方法,以及自动识别偏见和虚假特征。实验使用了多个数据集,并进行了广泛的用户研究。此外,该框架的跨模态可转移性还可以通过文本以更符合人类解释的方式来描述决策。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,例如使用激活最大化方法来解释模型决策。但是,DiffExplainer框架通过结合语言-视觉模型和扩散模型提供了一种新的方法,同时可以自动识别偏见和虚假特征。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论