CNN-based explanation ensembling for dataset, representation and explanations evaluation

2024年04月16日
  • 简介
    可解释人工智能因为在医疗、金融和自动驾驶等高风险领域广泛使用复杂的深度学习模型而备受关注。然而,不同的解释常常呈现出模型行为的不同方面。在这篇研究论文中,我们探讨了使用卷积模型生成的解释集成的潜力。通过实验和分析,我们旨在研究结合解释以揭示模型行为更一致可靠的模式的影响,从而有可能评估模型学习的表示。使用我们的方法,我们可以发现某个类别中图像的欠表示问题。此外,我们还讨论了其他附带好处,例如通过用其解释替换原始图像来减少特征,从而消除一些敏感信息。通过使用Quantus库中精心选择的评估指标,我们证明了该方法在本地化和忠实度方面相对于单个解释的卓越性能。
  • 图表
  • 解决问题
    本论文试图通过集成深度分类模型生成的不同解释来揭示模型行为的更一致和可靠的模式,以评估模型学习的表示,从而解决可解释人工智能的问题。
  • 关键思路
    本论文的关键思路是使用卷积模型集成解释来揭示模型行为的更一致和可靠的模式,从而评估模型学习的表示。
  • 其它亮点
    本论文的实验结果表明,与单个解释相比,使用集成解释可以更好地评估模型的本地化和忠实度。此外,本论文还探讨了使用解释替换原始图像的功能减少的可能性,以及解释揭示的类别中图像数量不足的问题。
  • 相关研究
    最近的相关研究包括“可解释人工智能”的其他方法,如LIME和SHAP,以及使用卷积模型的其他研究,如CAM和Grad-CAM。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论