No Vandalism: Privacy-Preserving and Byzantine-Robust Federated Learning

2024年06月03日
  • 简介
    本文旨在建立一个保护隐私且拜占庭容错的联邦学习方案,为恶意参与者的攻击提供无破坏环境。传统联邦学习容易受到中毒攻击的影响,这不仅会降低模型性能,还会植入恶意后门。此外,直接提交本地模型参数也可能导致训练数据集的隐私泄露。具体而言,我们构建了一个模型过滤器来保护全局模型免受数据和模型中毒攻击的影响。该模型过滤器结合了零知识证明,提供进一步的隐私保护。然后,我们采用秘密共享来提供可验证的安全聚合,以消除破坏聚合过程的恶意客户端。我们的正式分析证明了NoV可以保护数据隐私并清除拜占庭攻击者。我们的实验表明,NoV可以有效地解决数据和模型中毒攻击,包括PGD,并且优于其他相关方案。
  • 图表
  • 解决问题
    本论文旨在构建一种隐私保护和拜占庭容错的联邦学习方案,以提供无破坏环境(NoV)来防御恶意参与者的攻击。
  • 关键思路
    本文提出了一种模型过滤器来保护全局模型免受数据和模型污染攻击,结合零知识证明提供进一步的隐私保护。然后采用秘密共享来提供可验证的安全聚合,消除干扰聚合过程的恶意客户端。
  • 其它亮点
    本文的亮点在于提出了一种新的联邦学习方案,可以有效地解决数据和模型污染攻击,并且在实验中表现出色。实验使用了PGD等数据集,并且开源了相关代码。
  • 相关研究
    最近的相关研究包括:《Federated Learning with Differential Privacy: Algorithms and Performance》、《Towards Practical Byzantine Fault Tolerance》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论