Differentially Private Federated Learning: A Systematic Review

2024年05月14日
  • 简介
    近年来,机器学习中的隐私和安全问题促进了可信联邦学习成为研究的前沿。差分隐私由于其严格的数学基础和可证明的保证,在联邦学习中已成为隐私保护的事实标准。尽管关于在联邦学习中结合差分隐私的算法进行了广泛研究,但是系统地分类和综合这些研究还存在明显的不足。我们的工作提供了差分隐私联邦学习的系统概述。现有的分类方法没有充分考虑各种差分隐私模型在联邦学习中提供的隐私保护对象和级别。为了弥补这一差距,我们提出了一种基于各种差分隐私模型和联邦场景的定义和保证的新分类方法。我们的分类允许清晰地划分各种差分隐私模型中受保护的对象以及它们在联邦学习环境中的相应邻域级别。此外,我们探讨了差分隐私在联邦学习场景中的应用。我们的工作为保护隐私的联邦学习提供了有价值的见解,并为未来的研究提供了实用的方向。
  • 解决问题
    系统地总结分类和综合差分隐私保护的联邦学习研究,解决联邦学习中的隐私和安全问题。
  • 关键思路
    提出一种新的分类方法,基于不同差分隐私模型和联邦学习场景的定义和保护级别,清晰地划分各个差分隐私模型中的受保护对象和邻域级别。
  • 其它亮点
    论文提供了对差分隐私在联邦学习场景中的应用案例,探索了隐私保护联邦学习的实现方法和未来研究方向。
  • 相关研究
    最近的相关研究包括《Federated Learning with Differential Privacy: Algorithms and Performance》、《Privacy-Preserving Federated Brain Tumor Segmentation》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论