- 简介本文提出了一种新的框架,用于评估解释方法对深度伪造检测器决策的性能。该框架通过检查一组对抗攻击的程度,评估解释方法识别出对深度伪造检测器决策影响最大的伪造图像区域的能力,以此来翻转检测器的预测或减少其初始预测。我们预计,对于能够更准确地识别这些区域的方法,深度伪造检测准确率和预测结果会更大程度下降。基于这个框架,我们使用在FaceForensics++数据集上训练的一种最先进的深度伪造检测模型和五种文献中的解释方法进行了比较研究。我们的定量和定性评估结果表明,与其他比较的方法相比,LIME解释方法的性能更为优异,是最适合解释所使用的深度伪造检测器决策的方法。
- 图表
- 解决问题本文旨在提出一个新的框架来评估解释方法对深度伪造检测器决策的影响,并比较五种解释方法的性能。
- 关键思路本文提出了一种基于对抗攻击的框架,评估解释方法对深度伪造检测器决策的影响,找出对决策影响最大的区域,并通过对这些区域的修改来降低检测器的准确性和预测结果,以此来比较不同解释方法的性能。
- 其它亮点本文使用FaceForensics++数据集和一种最先进的深度伪造检测器进行实验,比较了五种解释方法的性能,并发现LIME解释方法表现最佳。本文的方法可以为深度伪造检测器的解释提供一种新的评估框架。
- 近期相关研究包括:“Towards Interpretable Deep Learning Models: A Survey”和“Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI”。
沙发等你来抢
去评论
评论
沙发等你来抢