- 简介图神经网络(GNN)是一种专门处理图结构数据的神经网络类型。通常情况下,GNN可以在两种设置中实现,包括传递式设置和归纳式设置。在传递式设置中,训练模型只能预测在训练时观察到的节点的标签。在归纳式设置中,训练模型可以推广到新的节点/图。由于其灵活性,归纳式设置目前是最受欢迎的GNN设置。先前的研究表明,传递式GNN容易受到一系列隐私攻击。然而,对于归纳式GNN模型的全面隐私分析仍然缺失。本文通过链接窃取攻击的视角,对归纳式GNN进行了系统的隐私分析,提出了两种类型的链接窃取攻击,即仅后验攻击和综合攻击。我们通过考虑后验概率、节点属性和图特征的组合来定义后验攻击的威胁模型,以及考虑这些因素的组合来定义综合攻击的威胁模型。对六个真实世界数据集的广泛评估表明,归纳式GNN泄漏了丰富的信息,使得链接窃取攻击具有优势。即使攻击者没有关于图结构的知识,攻击仍然有效。我们还展示了我们的攻击对于不同的节点相似性和不同的图特征具有鲁棒性。作为对策,我们调查了两种可能的防御方法,并发现它们对我们的攻击是无效的,这需要更有效的防御方法。
- 图表
- 解决问题这篇论文旨在通过针对图神经网络(GNN)进行隐私分析,揭示归纳式GNN模型存在的信息泄露问题,以及这些泄露问题可能导致的链接窃取攻击。
- 关键思路论文通过提出两种类型的链接窃取攻击,即仅基于后验攻击和组合攻击,系统性地分析了归纳式GNN的隐私问题,并发现GNN模型泄露的信息可以被用于链接窃取攻击。
- 其它亮点实验结果表明,即使攻击者没有关于图结构的任何知识,仅基于节点属性和后验概率的攻击也能够成功。此外,论文还研究了两种可能的防御方法,并发现它们对攻击是无效的。
- 最近的相关研究包括:《Adversarial Attacks on Graph Neural Networks via Meta Learning》、《Certifiable Robustness and Robust Training for Graph Convolutional Networks》等。
沙发等你来抢
去评论
评论
沙发等你来抢