Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks

2024年06月14日
  • 简介
    图神经网络在节点分类和图分类等任务中取得了有希望的结果。然而,最近的研究发现,GNN容易受到后门攻击,这对其在现实世界中的应用构成了重大威胁。尽管最初有关于防御特定图后门攻击的努力,但还没有针对生成的触发器具有不同特性的各种类型后门攻击的防御工作。因此,我们首先经验证明,边缩减下的预测方差是识别被污染节点的关键指标。基于此观察,我们提出使用随机边缩减来检测后门攻击,并理论上证明它可以有效地区分被污染节点和干净节点。此外,我们引入了一种新的强健训练策略,以有效地抵消触发器的影响。在真实世界数据集上的大量实验表明,我们的框架可以有效地识别被污染节点,在防御具有不同属性的各种类型的图后门攻击时显著降低攻击成功率,并保持干净准确性。
  • 图表
  • 解决问题
    本论文旨在解决图神经网络(GNNs)面临的后门攻击问题,这是一个新的问题。
  • 关键思路
    本论文提出了一种新的方案,使用随机边缘删除来检测后门攻击,并引入了一种新的鲁棒训练策略来对抗后门攻击。
  • 其它亮点
    论文通过实验证明了预测方差在边缘删除下是识别受污染节点的关键指标。实验使用真实世界数据集,证明了该框架可以有效地识别受污染的节点,显著降低攻击成功率,并在防御具有不同特性的各种类型的图后门攻击时保持清洁的准确性。
  • 相关研究
    在最近的相关研究中,也有一些关于图神经网络后门攻击的研究。例如,"Targeted Attacks on Graph Neural Networks via Manipulating the Graph Structure"等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论