Dealing Doubt: Unveiling Threat Models in Gradient Inversion Attacks under Federated Learning, A Survey and Taxonomy

2024年05月16日
  • 简介
    联邦学习已成为分散、保护隐私的机器学习训练的主要范式。然而,最近有关渐变反演攻击(GIAs)的研究表明,FL中的渐变更新可能会泄露私人训练样本的信息。虽然现有的GIAs调查集中在诚实但好奇的服务器威胁模型上,但缺乏将攻击分类到更为现实和侵犯隐私的恶意服务器和客户端的研究。在本文中,我们提出了一项调查和新的GIAs分类法,强调FL威胁模型,特别是恶意服务器和客户端的威胁模型。我们首先正式定义GIAs,并将传统攻击与恶意攻击者进行对比。然后,我们总结现有的诚实但好奇的攻击策略、相应的防御措施和评估指标。关键是,我们深入研究了恶意服务器和客户端的攻击方式,以突出它们如何打破现有的FL防御,重点关注重构方法、目标模型架构、目标数据和评估指标。最后,我们讨论了开放问题和未来的研究方向。
  • 图表
  • 解决问题
    本论文旨在解决联邦学习中的梯度反演攻击问题,特别是针对恶意服务器和客户端的攻击。
  • 关键思路
    论文提出了一种新的分类法来描述针对联邦学习的梯度反演攻击,并探讨了这些攻击如何破坏现有的防御方法。
  • 其它亮点
    论文总结了现有的针对联邦学习的梯度反演攻击策略及其防御方法,并着重讨论了恶意服务器和客户端的攻击。论文还探讨了开放问题和未来的研究方向。
  • 相关研究
    最近的相关研究包括:Gradient Inversion Attacks in Federated Learning: A Survey和Privacy-Preserving Machine Learning: Threats and Defenses。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论