Poisoning-based Backdoor Attacks for Arbitrary Target Label with Positive Triggers

2024年05月09日
  • 简介
    基于毒化的后门攻击揭示了深度神经网络(DNN)训练的数据准备阶段的漏洞。在毒化数据集上训练的DNN将嵌入后门,使它们在干净数据上表现良好,但在应用触发器时输出恶意预测。为了利用输入数据中包含的丰富信息来输出标签映射,我们的方案利用从干净数据集训练的网络作为触发器生成器,产生毒药,显著提高后门攻击的成功率,与传统方法相比。具体而言,我们提供了一个基于对抗技术的新触发器分类,并开发了一种多标签和多负载的基于毒化的后门攻击,其中包含正触发器(PPT),有效地将输入移动到良性分类器上的目标标签。在对毒化数据集进行分类器训练后,我们可以生成一个输入标签感知的触发器,使受感染的分类器以高概率预测任何给定输入到任何目标标签。在脏标签和干净标签设置下,我们在各种数据集上进行实证研究,包括SVHN、CIFAR10、GTSRB和Tiny ImageNet,证明了所提出的攻击在不牺牲准确性的情况下实现了高攻击成功率。此外,PPT攻击可以规避各种经典的后门防御,证明了其有效性。
  • 图表
  • 解决问题
    本论文试图解决深度神经网络(DNN)训练中数据准备阶段存在的毒化后门攻击漏洞问题。
  • 关键思路
    论文提出了一种新的带有正向触发器的多标签和多负载毒化后门攻击方案(PPT),通过使用从干净数据集训练出的网络作为触发器生成器,可以显著提高后门攻击的成功率。
  • 其它亮点
    论文提出了一种新的毒化后门攻击方案,可以在不影响准确性的情况下实现高攻击成功率。实验使用了多个数据集并证明了该攻击方案的有效性,并且可以逃避许多传统的后门防御方法。
  • 相关研究
    最近的相关研究包括:\n1. "BadNets: Identifying Vulnerabilities in the Machine Learning Model Supply Chain"\n2. "Poison Frogs! Targeted Clean-Label Poisoning Attacks on Neural Networks"\n3. "The Limitations of Deep Learning in Adversarial Settings"
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论