- 简介最近的研究揭示了联邦学习中的严重隐私风险,如梯度泄漏攻击。然而,现有研究主要旨在提高隐私攻击成功率,而忽略了恢复私人数据所需的高计算成本,使隐私攻击在实际应用中不切实际。在本研究中,我们从效率的角度研究隐私攻击,并提出了一种提高联邦学习中隐私攻击效率的框架(EPAFL)。我们做出了三个新的贡献。首先,我们系统评估了联邦学习中代表性隐私攻击的计算成本,展示了优化效率的高潜力。其次,我们提出了三种早停技术,有效降低了这些隐私攻击的计算成本。第三,我们在基准数据集上进行实验,并展示了我们提出的方法可以显著降低计算成本,并保持联邦学习中最先进隐私攻击的可比攻击成功率。我们在GitHub上提供了代码:https://github.com/mlsysx/EPAFL。
- 图表
- 解决问题本文旨在从效率的角度探讨联邦学习中的隐私攻击,并提出了一种提高隐私攻击效率的框架。
- 关键思路本文系统评估了联邦学习中代表性隐私攻击的计算成本,并提出了三种早停技术来有效降低这些隐私攻击的计算成本。
- 其它亮点本文提出的方法可以显著降低计算成本,并在联邦学习中保持可比较的攻击成功率。实验使用了基准数据集,并在GitHub上提供了开源代码。
- 最近的相关研究包括Gradient Leakage Attacks和其他隐私攻击方法的研究。
沙发等你来抢
去评论
评论
沙发等你来抢