Federated Graph Condensation with Information Bottleneck Principles

2024年05月07日
  • 简介
    图压缩通过合成一个小规模的紧凑图作为其替代品,从而减小大规模图的大小,立即受益于各种图学习任务。然而,现有的图压缩方法依赖于集中式数据存储,这在实际的分散式数据分布中是不可行的,并且忽视了数据持有者的隐私保护要求。为了弥合这一差距,我们提出并研究了图神经网络(GNN)的联邦图压缩的新问题。具体而言,我们首先提出了联邦图压缩的通用框架,在其中我们将图压缩的典型梯度匹配过程分解为客户端梯度计算和服务器端梯度匹配。这样,客户端的繁重计算成本大大减轻。此外,我们的实证研究表明,在联邦设置下,压缩图将持续泄露数据成员隐私,即在成员推断攻击(MIA)下,联邦训练期间的压缩图可用于窃取训练数据。为了解决这个问题,我们创新地将信息瓶颈原理纳入联邦图压缩中,只需要在一个本地预训练步骤中提取部分节点特征,并在联邦训练期间利用这些特征。对实际数据集的广泛实验表明,我们的框架可以在训练期间始终保护成员隐私。同时,它也实现了与现有集中式图压缩和联邦图学习方法相当甚至更好的性能。
  • 图表
  • 解决问题
    本论文旨在解决现有图压缩方法依赖于集中式数据存储的问题,提出一种面向图神经网络的联邦图压缩方法,并解决在联邦学习中泄露数据隐私的问题。
  • 关键思路
    本论文提出了一种联邦图压缩的框架,将典型的梯度匹配过程分解为客户端梯度计算和服务器端梯度匹配,以减轻客户端的计算负担,并采用信息瓶颈原理来保护成员隐私。
  • 其它亮点
    本文的亮点包括提出了联邦图压缩的框架,采用信息瓶颈原理来保护成员隐私,实验结果表明该框架不仅能够保护成员隐私,而且在性能上也优于现有的中心化图压缩和联邦图学习方法。
  • 相关研究
    与本文相关的研究包括集中式图压缩方法和联邦学习方法。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论