- 简介可解释的人工智能对于揭示复杂机器学习模型的决策过程至关重要。LIME(局部可解释的模型无关解释)是一个着名的用于图像分析的XAI框架。它利用图像分割来创建特征,以识别分类的相关区域。因此,较差的分割可能会损害解释的一致性,并削弱分割的重要性,影响整体的可解释性。为了解决这些挑战,我们引入了DSEG-LIME(数据驱动分割LIME),具有以下特点:i)数据驱动的分割用于生成人类识别的特征;ii)通过组合的分层分割过程。我们在ImageNet数据集的图像上对预训练模型进行了基准测试-没有领域特定知识的情况下。该分析包括使用已建立的XAI指标进行的定量评估,以及通过用户研究进行的定性评估。我们的研究结果表明,DSEG在大多数XAI指标上表现优异,并增强了解释与人类识别概念的一致性,显著提高了可解释性。代码可在以下网址找到:https://github.com/patrick-knab/DSEG-LIME。
- 图表
- 解决问题解释人工智能模型的决策过程对于提高其可解释性至关重要,但是现有的图像解释方法可能会受到图像分割不准确的影响,从而降低了解释的一致性和可解释性。
- 关键思路本文提出了一种基于数据驱动分割的 LIME 框架,称为 DSEG-LIME,通过人类识别的特征生成来进行层次分割,以提高解释的一致性和可解释性。
- 其它亮点通过在 ImageNet 数据集上的实验评估,本文的 DSEG-LIME 框架在大多数 XAI 指标上表现出色,并显著提高了解释与人类识别概念的一致性。该研究还开源了代码。
- 与本文相关的研究包括 LIME 框架的先前版本以及其他基于图像分割的可解释性方法,如 CAM 和 Grad-CAM。
沙发等你来抢
去评论
评论
沙发等你来抢