Multimodal Attack Detection for Action Recognition Models

2024年04月13日
  • 简介
    视频动作识别模型的对抗机器学习攻击是一个不断增长的研究领域,近年来引入了许多有效的攻击方法。这些攻击表明,动作识别模型可以被多种方式攻破。因此,在实践中使用这些模型引起了重大的安全问题。然而,很少有研究专注于防御或检测攻击。在这项工作中,我们提出了一种新的通用检测方法,该方法与任何动作识别模型兼容。在我们广泛的实验中,我们展示了我们的方法在保持非常低的误报率的同时,始终以高真正阳性率检测不同目标模型的各种攻击。在针对四个动作识别模型的四种最先进的攻击测试中,所提出的检测器在16个测试用例中实现了平均AUC为0.911的表现,而现有检测器的最佳表现为0.645平均AUC。这种41.2%的改进是由于所提出的检测器对不同的攻击方法和目标模型具有鲁棒性。我们的检测器在16个测试用例中的最低AUC为0.837,而竞争检测器的表现则降至0.211。我们还展示了所提出的检测器对不同攻击强度的鲁棒性。此外,我们分析了我们的方法在不同硬件设置下的实时性能,以展示其作为实际防御机制的潜力。
  • 图表
  • 解决问题
    本文试图解决视频动作识别模型面临的对抗攻击问题,提出一种通用的检测方法。
  • 关键思路
    本文提出的检测方法可以适用于任何动作识别模型,并且在不同攻击方法和目标模型下都能达到较高的真正例率和较低的误识率。
  • 其它亮点
    本文在四种不同的动作识别模型和四种不同的攻击方法下进行了实验,结果表明本文提出的方法在16个测试用例中平均AUC为0.911,比现有检测器的最佳表现提高了41.2%。同时,本文提出的方法还能够抵抗不同攻击强度,并且在不同硬件设置下具有实时性能。本文的代码已经开源。
  • 相关研究
    最近的相关研究包括:'Adversarial Attacks and Defenses in Deep Learning'、'Adversarial Machine Learning: A Review'、'Towards Evaluating the Robustness of Neural Networks'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论