XAI-Based Detection of Adversarial Attacks on Deepfake Detectors

2024年03月05日
  • 简介
    我们介绍了一种利用可解释人工智能(XAI)识别深度伪造检测器对抗攻击的新方法。在数字化进步的时代,深度伪造已经成为一种强大的工具,需要高效的检测系统。然而,这些系统经常受到对抗攻击,从而影响其性能。我们通过利用XAI的力量,开发了一种可防御的深度伪造检测器,填补了这一空白。所提出的方法使用XAI为给定方法生成可解释性地图,提供AI模型决策因素的明确可视化。随后,我们使用预训练的特征提取器来处理输入图像及其对应的XAI图像。从该过程中提取的特征嵌入随后用于训练一个简单而有效的分类器。我们的方法不仅有助于检测深度伪造,而且增强了对可能的对抗攻击的理解,指出潜在的漏洞。此外,这种方法不会改变深度伪造检测器的性能。本文展示了有前途的结果,为未来的深度伪造检测机制开辟了潜在的途径。我们相信,这项研究将为社区做出有价值的贡献,引发急需的关于保护深度伪造检测器的讨论。
  • 图表
  • 解决问题
    该论文旨在使用可解释人工智能(XAI)识别对深度伪造检测器的对抗攻击,以提高检测系统的鲁棒性。
  • 关键思路
    该论文提出了一种使用XAI生成可解释性图像的方法,并使用预训练的特征提取器和简单而有效的分类器来识别深度伪造图像。
  • 其它亮点
    该论文的方法不仅提高了检测深度伪造图像的准确性,还提供了对可能的对抗攻击的理解和预测。实验结果表明该方法具有良好的性能和应用前景。
  • 相关研究
    最近的相关研究包括使用生成对抗网络(GAN)生成深度伪造图像和使用卷积神经网络(CNN)检测深度伪造图像的方法。相关论文包括“DeepFakes: A New Threat to Face Recognition? Assessment and Detection”和“Detecting Deepfake Videos Using Convolutional Neural Networks”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论