Graph Neural Backdoor: Fundamentals, Methodologies, Applications, and Future Directions

2024年06月15日
  • 简介
    图神经网络(GNN)已经显著推进了各种与图相关的下游任务,包括推荐系统、分子结构预测、社交媒体分析等。尽管GNN有所提升,但最近的研究实证了其潜在的后门攻击漏洞,攻击者利用触发器污染输入样本,诱导GNN产生攻击者预先设计的恶意输出。这通常是由于受控制的训练过程或部署不受信任的模型所致,例如将模型训练委托给第三方服务、利用外部训练集和使用来自在线来源的预训练模型。虽然GNN后门攻击的研究正在不断增加,但对这个领域的全面调查还不够。为了填补这一空白,我们提出了第一个专门针对GNN后门攻击的调查。我们首先概述了GNN的基本定义,然后根据其技术特点和应用场景对当前GNN后门攻击和防御进行了详细总结和分类。随后,我们对GNN后门攻击的适用性和用例进行了分析。最后,我们提出了GNN后门攻击的潜在研究方向。本调查旨在探索图后门的原理,为防御者提供洞见,并促进未来的安全研究。
  • 图表
  • 解决问题
    本论文旨在调查图神经网络(GNN)后门攻击的现状,并提出一种分类和总结这些攻击和防御方法的方法。同时探讨GNN后门攻击的应用和潜在研究方向。
  • 关键思路
    论文提出了第一个专门针对GNN后门攻击的调查,并对当前攻击和防御方法进行了分类和总结。此外,论文还探讨了GNN后门攻击的应用和潜在研究方向。
  • 其它亮点
    论文详细总结了当前GNN后门攻击和防御方法,并探讨了GNN后门攻击的应用和潜在研究方向。此外,论文还提供了实验数据和开源代码。
  • 相关研究
    最近在这个领域中,还有一些相关研究,如:Backdoor Attacks and Defenses in Deep Learning: A Survey、A Survey on Neural Backdoor Attacks and Defenses、Backdoor Attacks in Federated Learning and Densely Connected Networks等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论