Reliable or Deceptive? Investigating Gated Features for Smooth Visual Explanations in CNNs

2024年04月30日
  • 简介
    深度学习模型在不同领域取得了显著的成功。然而,这些模型的复杂性经常阻碍对它们决策过程的清晰理解。这就是可解释性人工智能(XAI)不可或缺的地方,它为模型决策提供直观的解释。在这项工作中,我们提出了一种简单但高效的方法ScoreCAM++,该方法引入了修改以增强有前途的ScoreCAM方法的视觉可解释性。我们的方法涉及修改ScoreCAM中使用的激活层中的归一化函数,从而与以前的努力相比,显著改善了结果。此外,我们对上采样的激活层应用激活函数以增强可解释性。通过选择性地对激活层中的较低优先级值进行门控,实现了这种改进。通过广泛的实验和定性比较,我们证明ScoreCAM++始终比ScoreCAM和以前的方法在解释决策过程方面实现了显着的优越性和公平性。
  • 图表
  • 解决问题
    提出了一个名为ScoreCAM++的可解释性人工智能方法,旨在解决深度学习模型决策过程不可解释的问题。
  • 关键思路
    ScoreCAM++通过修改ScoreCAM中的归一化函数和应用激活函数来提高模型的可解释性,使得模型决策过程更易于理解和解释。
  • 其它亮点
    论文通过实验验证了ScoreCAM++在解释模型决策过程方面的优越性,同时提供了开源代码和使用的数据集,为该领域的进一步研究提供了基础。
  • 相关研究
    与ScoreCAM++相关的研究包括ScoreCAM和其他一些可解释性人工智能方法,如LIME、SHAP等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论