- 简介联邦学习(FL)是一种隐私保护的机器学习方法,多个参与方共享梯度信息而非原始用户数据。最近的研究表明,梯度反演攻击可以利用FL的梯度来重新创建原始用户数据,构成重大的隐私风险。然而,这些攻击对攻击者做出了强烈的假设,例如改变模型结构或参数、获取批量归一化统计信息或获取原始训练集的先前知识等。因此,这些攻击在实际情况下是不可能的。为此,我们提出了一种基于样式迁移网络的梯度反演攻击(GI-SMN),打破了以前梯度反演攻击所做出的强烈假设。通过对潜在代码的细化和使用正则化项来促进梯度匹配,优化空间被缩小。GI-SMN能够批量高相似度地重建用户数据。实验结果表明,GI-SMN在视觉效果和相似性指标方面均优于最先进的梯度反演攻击。此外,它还可以克服梯度剪枝和差分隐私防御。
- 图表
- 解决问题解决隐私保护机器学习中梯度反演攻击的问题
- 关键思路提出了一种基于Style Migration Network的Gradient Inversion攻击方法,可以在不需要先前知识的情况下重构用户数据
- 其它亮点实验结果表明,该方法在视觉效果和相似性指标方面均优于现有的梯度反演攻击方法,并且可以克服梯度修剪和差分隐私防御
- 相关研究包括:Gradient inversion attacks, Federated Learning, Differential Privacy
沙发等你来抢
去评论
评论
沙发等你来抢