T-TAME: Trainable Attention Mechanism for Explaining Convolutional Networks and Vision Transformers

2024年03月07日
  • 简介
    深度学习架构,如Vision Transformers,用于图像分类任务的开发和采用已经非常迅速。然而,神经网络的“黑盒子”特性是应用中可解释性的一道障碍。虽然已经提出了一些用于解释的技术,主要是针对卷积神经网络,但将这些技术适应于Vision Transformers的新范例是非常困难的。本文提出了T-TAME(Transformer-compatible Trainable Attention Mechanism for Explanations),一种用于解释图像分类任务中的深度神经网络的通用方法。所提出的架构和训练技术可以轻松应用于任何卷积或类似Vision Transformer的神经网络,并使用简化的训练方法。训练后,可以在单次前向传递中计算解释地图;这些解释地图与计算成本高的扰动解释技术的输出相当或优于其输出,达到了SOTA性能。我们将T-TAME应用于三种流行的深度学习分类器架构,VGG-16、ResNet-50和ViT-B-16,这些架构在ImageNet数据集上进行了训练,并展示了对现有最先进的可解释性方法的改进。对结果的详细分析和消融研究提供了有关T-TAME设计选择如何影响生成的解释地图质量的见解。
  • 图表
  • 解决问题
    解释深度神经网络在图像分类任务中的预测结果,以提高可解释性。
  • 关键思路
    提出了一种可应用于卷积神经网络和Vision Transformer等深度神经网络的训练可调节注意力机制(T-TAME)来生成解释性的热力图,该方法通过简化训练过程,可在一次前向传递中计算出解释热力图。
  • 其它亮点
    T-TAME方法能够在图像分类任务中生成可解释性的热力图,并且在计算效率和性能方面优于其他解释性技术。实验结果表明,T-TAME方法在VGG-16、ResNet-50和ViT-B-16等深度神经网络上均取得了优异的性能,值得进一步研究。
  • 相关研究
    与该论文相关的研究包括解释性机器学习、可解释性深度学习以及其他生成解释热力图的方法,如LIME、Grad-CAM等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论