Universally Harmonizing Differential Privacy Mechanisms for Federated Learning: Boosting Accuracy and Convergence

2024年07月20日
  • 简介
    差分隐私联邦学习(DP-FL)是一种有前途的技术,可以在确保客户端隐私的同时进行协作模型训练。然而,优化隐私和准确性之间的平衡仍然是一个关键挑战。据我们所知,我们提出了第一个DP-FL框架(即UDP-FL),它可以普遍地协调任何随机化机制(例如最优机制)与高斯矩账户(即DP-SGD)来显著提高准确性和收敛速度。具体而言,UDP-FL通过减少对高斯噪声的依赖,展示了增强的模型性能。这种转化中的关键中介变量是R\'enyi差分隐私概念,它被谨慎地用于协调隐私预算。我们还提出了一种创新的方法来理论分析DP-FL(包括我们的UDP-FL)的收敛性,基于模式连接分析。此外,我们通过广泛的实验对UDP-FL进行了评估,与最先进的方法进行了基准测试,证明了在隐私保证和模型性能方面具有卓越的性能。值得注意的是,UDP-FL表现出对不同推断攻击的重大韧性,这表明在联邦学习环境中保护敏感数据方面取得了重大进展。
  • 图表
  • 解决问题
    论文旨在解决差分隐私联邦学习中隐私和准确性之间的平衡问题,提出一种新的框架UDP-FL来提高模型的性能和隐私保护能力。
  • 关键思路
    UDP-FL框架结合了任何随机化机制和高斯矩账户(DP-SGD)的优点,通过Rényi差分隐私概念来协调隐私预算,从而提高模型性能和隐私保护能力。
  • 其它亮点
    论文提出的UDP-FL框架在隐私保护和模型性能上都表现出优异的结果,并且具有抵御不同推断攻击的鲁棒性。论文还提出了一种基于模态连通性分析的理论分析方法来评估DP-FL的收敛性能。
  • 相关研究
    最近的相关研究包括《Federated Learning with Differential Privacy: Algorithms and Performance》、《Differentially Private Federated Learning: A Client Level Perspective》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论