A Federated Parameter Aggregation Method for Node Classification Tasks with Different Graph Network Structures

2024年03月24日
  • 简介
    在过去几年中,联邦学习因其协作训练多个数据源而不会危及隐私的能力,在各种经典机器学习领域得到了广泛应用。然而,在图神经网络领域,由客户端持有的图的节点和网络结构在许多实际应用中是不同的,直接共享模型梯度的聚合方法不能直接应用于这种情况。因此,本文提出了一种适用于各种图联邦情景的联邦聚合方法FLGNN,并研究了图神经网络模型每层参数共享的聚合效果。通过对真实数据集的实验验证了FLGNN联邦聚合方法的有效性。此外,为了保护FLGNN的隐私安全,本文设计了会员推断攻击实验和差分隐私防御实验。结果表明,FLGNN具有良好的鲁棒性,并且通过添加差分隐私防御方法,进一步降低了隐私窃取的成功率。
  • 图表
  • 解决问题
    本论文旨在解决在图神经网络领域中,由于客户端拥有不同的节点和网络结构,直接共享模型梯度的聚合方法不能直接应用于此场景的问题。
  • 关键思路
    本文提出了一种名为FLGNN的联邦聚合方法,应用于各种图联邦场景,并调查了图神经网络模型每层参数共享的聚合效果。同时,为了保护FLGNN的隐私安全,本文设计了成员推断攻击实验和差分隐私防御实验。
  • 其它亮点
    本文的实验使用了真实数据集,并验证了FLGNN的有效性和鲁棒性。此外,差分隐私防御方法进一步降低了隐私盗窃的成功率。
  • 相关研究
    最近的相关研究包括:Federated Learning for Graph Neural Networks: A Meta-Algorithm with Improved Communication Efficiency和Federated Graph Neural Network for Privacy-Preserving Representation Learning。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论