FedAdOb: Privacy-Preserving Federated Deep Learning with Adaptive Obfuscation

2024年06月03日
  • 简介
    联邦学习(FL)已经成为一种协作方法,允许多个客户端共同学习机器学习模型而不共享其私有数据。对于隐私泄露的担忧,尽管在特定条件下已经得到证明,但已经引发了许多后续研究,旨在设计强大的攻击方法和有效的防御机制以阻止这些攻击方法。然而,这些防御方法中采用的隐私保护机制不可避免地会导致模型性能受损,因为私有数据或梯度会受到固定的混淆。因此,在本文中,我们提出了一种新的自适应混淆机制FedAdOb,以保护私有数据而不影响原始模型性能。技术上,FedAdOb利用基于护照的自适应混淆来确保水平和垂直联邦学习环境下的数据隐私。FedAdOb的隐私保护能力,特别是对于私有特征和标签,通过定理1和定理2在理论上得到了证明。此外,在各种数据集和网络架构上进行的广泛实验评估表明,FedAdOb的有效性得到了证明,表现出隐私保护和模型性能之间的卓越权衡,超过了现有方法。
  • 图表
  • 解决问题
    本论文试图解决隐私泄露问题,尤其是围绕联邦学习的隐私泄露问题。现有的隐私保护机制会影响模型的性能,本文提出一种新的机制来保护隐私且不影响模型性能。
  • 关键思路
    本文提出一种名为FedAdOb的新的自适应混淆机制,使用基于护照的自适应混淆来确保数据隐私。该机制在水平和垂直联邦学习设置下均可使用。作者通过理论证明了FedAdOb对于私有特征和标签的隐私保护能力。
  • 其它亮点
    本文的实验结果表明,FedAdOb在隐私保护和模型性能之间取得了更好的平衡,并且优于现有的方法。作者还使用了多个数据集和网络架构进行了实验,并展示了其开源代码。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如:'Privacy-Preserving Machine Learning: Threats and Solutions'、'Federated Learning: Challenges, Methods, and Future Directions'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论