- 简介Federated learning(FL)通过仅暴露用户模型梯度来增强模型训练的隐私保护能力。然而,FL用户容易受到梯度反演(GI)攻击的影响,该攻击可以基于模型梯度重建出原始训练数据,例如图像。然而,现有的GI攻击算法在重建高分辨率图像时面临两个挑战:精度不足和慢收敛,特别是当上下文复杂时,例如每个FL用户的训练批次大小远大于1。为了解决这些挑战,我们提出了一种名为RAF-GI的鲁棒、准确和快速收敛的GI攻击算法,它由两个组成部分组成:1)附加卷积块(ACB),可以将标签恢复到比现有算法提高20%的精度;2)总变差、三通道均值和Canny边缘检测正则化项(TEA),这是一种白盒攻击策略,可以基于ACB推断的标签重建图像。此外,RAF-GI是鲁棒的,即使用户的训练批次大小不超过48,仍能准确地重建原始数据。我们的实验结果表明,RAF-GI可以在ImageNet数据集中减少94%的时间成本,同时实现出色的反演质量。值得注意的是,在批次大小为1的情况下,RAF-GI显示出比现有基线高7.89的峰值信噪比(PSNR)。
- 图表
- 解决问题本论文旨在解决Federated Learning用户面临的梯度反演攻击问题,提出了一种名为RAF-GI的算法,旨在快速高效地重构高分辨率图像。
- 关键思路RAF-GI算法包含两个组件:ACB和TEA。ACB可以恢复标签,并比现有方法提高了20%的准确性。TEA是一种白盒攻击策略,可以基于ACB推断的标签重构图像。此外,RAF-GI具有鲁棒性,即使用户的训练批次大小不超过48,仍然可以准确地重构真实数据。
- 其它亮点RAF-GI算法可以在ImageNet数据集中降低94%的时间成本,并实现出色的反演质量。当批次大小为1时,RAF-GI的峰值信噪比(PSNR)比现有基线高7.89。论文使用的数据集是ImageNet,实验设计详细,还提供了开源代码。
- 在最近的相关研究中,一些相关的论文包括:'Federated Learning with Differential Privacy: Strategies for Improving Robustness','Towards Federated Learning at Scale: System Design','Federated Learning: Challenges, Methods, and Future Directions'等。
沙发等你来抢
去评论
评论
沙发等你来抢