RAF-GI: Towards Robust, Accurate and Fast-Convergent Gradient Inversion Attack in Federated Learning

2024年03月13日
  • 简介
    Federated learning(FL)通过仅暴露用户模型梯度来增强模型训练的隐私保护能力。然而,FL用户容易受到梯度反演(GI)攻击的影响,该攻击可以基于模型梯度重建出原始训练数据,例如图像。然而,现有的GI攻击算法在重建高分辨率图像时面临两个挑战:精度不足和慢收敛,特别是当上下文复杂时,例如每个FL用户的训练批次大小远大于1。为了解决这些挑战,我们提出了一种名为RAF-GI的鲁棒、准确和快速收敛的GI攻击算法,它由两个组成部分组成:1)附加卷积块(ACB),可以将标签恢复到比现有算法提高20%的精度;2)总变差、三通道均值和Canny边缘检测正则化项(TEA),这是一种白盒攻击策略,可以基于ACB推断的标签重建图像。此外,RAF-GI是鲁棒的,即使用户的训练批次大小不超过48,仍能准确地重建原始数据。我们的实验结果表明,RAF-GI可以在ImageNet数据集中减少94%的时间成本,同时实现出色的反演质量。值得注意的是,在批次大小为1的情况下,RAF-GI显示出比现有基线高7.89的峰值信噪比(PSNR)。
  • 图表
  • 解决问题
    本论文旨在解决Federated Learning用户面临的梯度反演攻击问题,提出了一种名为RAF-GI的算法,旨在快速高效地重构高分辨率图像。
  • 关键思路
    RAF-GI算法包含两个组件:ACB和TEA。ACB可以恢复标签,并比现有方法提高了20%的准确性。TEA是一种白盒攻击策略,可以基于ACB推断的标签重构图像。此外,RAF-GI具有鲁棒性,即使用户的训练批次大小不超过48,仍然可以准确地重构真实数据。
  • 其它亮点
    RAF-GI算法可以在ImageNet数据集中降低94%的时间成本,并实现出色的反演质量。当批次大小为1时,RAF-GI的峰值信噪比(PSNR)比现有基线高7.89。论文使用的数据集是ImageNet,实验设计详细,还提供了开源代码。
  • 相关研究
    在最近的相关研究中,一些相关的论文包括:'Federated Learning with Differential Privacy: Strategies for Improving Robustness','Towards Federated Learning at Scale: System Design','Federated Learning: Challenges, Methods, and Future Directions'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论