- 简介在分布式学习环境中,模型会通过共享梯度进行迭代更新,这些梯度是从可能包含敏感用户数据的数据中计算出来的。虽然之前的研究已经研究了共享梯度的各种隐私风险,但我们的论文旨在提供一种系统性的方法来分析梯度泄露的私人信息。我们提出了一个统一的基于博弈的框架,涵盖了广泛的攻击类型,包括属性、属性、分布和用户泄露。我们通过在各种数据模态下对五个数据集进行广泛实验来研究不同不确定性对对手推断能力的影响。我们的结果表明,仅依靠数据聚合来实现分布式学习中的隐私保护是无效的。我们进一步评估了五种防御方法,包括梯度修剪、有符号梯度下降、对抗扰动、变分信息瓶颈和差分隐私,这些防御方法在静态和自适应对手设置下都进行了评估。我们提供了一种信息论视角,用于分析这些防御措施对梯度推断的有效性。最后,我们介绍了一种审计属性推断隐私的方法,通过制作对抗金丝雀记录来改进最坏情况隐私的经验估计。
- 图表
- 解决问题研究分布式学习中梯度共享可能泄露用户隐私的问题,并提出一种系统化的方法来分析梯度泄露私人信息的情况。
- 关键思路提出了一种基于博弈的框架,涵盖了属性、特性、分布和用户泄露等各种攻击,并评估了五种防御方法的有效性,包括梯度修剪、签名梯度下降、对抗性扰动、变分信息瓶颈和差分隐私。
- 其它亮点通过在不同数据模态的五个数据集上进行广泛的实验,研究了不同不确定性对对手推理能力的影响,并介绍了一种审核属性推理隐私的方法,通过制作对抗金丝雀记录来提高最坏情况下隐私的经验估计。
- 在分布式学习中隐私保护方面的相关研究包括:Federated Learning with Differential Privacy、Privacy-Preserving Distributed Deep Learning with Asynchronous Stochastic Gradient Descent Algorithms、Secure Distributed Machine Learning with Homomorphic Encryption等。
沙发等你来抢
去评论
评论
沙发等你来抢