- 简介本文介绍了深度神经网络(DNN)在计算机视觉领域,如目标检测方面的卓越表现,但现有研究表明DNN容易受到对抗攻击。在物理世界中,攻击者可以利用对抗性补丁实施隐藏攻击(HA)来覆盖目标物体,使其从检测器中消失,或者实施出现攻击(AA),使检测器将补丁错误地识别为特定物体。最近,已经提出了许多检测器的防御方法来减轻对抗性补丁的潜在威胁。然而,这些方法仍然存在着泛化性、鲁棒性和效率方面的局限性。大多数防御只能有效地对抗HA,而使检测器容易受到AA攻击的威胁。 本文提出了一种名为\textit{NutNet}的创新模型,用于检测对抗性补丁,具有高泛化性、鲁棒性和效率。通过对包括YOLOv2-v4、SSD、Faster RCNN和DETR在数字和物理领域的六个检测器进行实验,结果表明我们提出的方法可以有效地防御HA和AA,只有0.4\%的干净性能牺牲。我们将NutNet与四种检测器的基线防御方法进行比较,结果表明我们的方法在HA和AA方面的平均防御性能分别比现有方法高2.4倍和4.7倍。此外,NutNet仅增加了8\%的推理时间,可以满足检测系统的实时要求。NutNet的演示可在以下网址找到:\url{https://sites.google.com/view/nutnet}。
- 图表
- 解决问题本论文旨在提出一种新的模型NutNet,用于检测对抗贴片攻击,提高检测器的泛化性、鲁棒性和效率。
- 关键思路NutNet模型采用了新的思路,可以有效地防御对抗贴片攻击,同时不影响模型的性能和实时性能。
- 其它亮点论文使用了六种检测器进行实验,并在数字和物理领域进行了测试,结果表明NutNet模型可以有效地防御对抗贴片攻击,并且只有0.4%的性能损失。相比于其他四种基线防御方法,NutNet模型在HA和AA方面的平均防御性能分别提高了2.4倍和4.7倍。论文提供了实验的详细设计,开源了代码,并且提供了可供使用的演示。
- 最近的相关研究还包括:Adversarial Patch Defense with Neural Cleanse、Adversarial Patch Detection with Image Transformation、Adversarial Patch Defense via Gradient Regularization。
沙发等你来抢
去评论
评论
沙发等你来抢