- 简介垂直联邦学习(VFL)促进了协作机器学习,而不需要参与者共享原始私有数据。然而,最近的研究揭示了隐私风险,即敌手可能通过学习过程中的数据泄露重建敏感特征。虽然基于梯度或模型信息的数据重建方法在某种程度上是有效的,但它们在VFL应用场景中显示出局限性。这是因为这些传统方法在很大程度上依赖于特定的模型结构和/或在应用场景上有严格的限制。为了解决这个问题,我们的研究将统一逆向网络框架引入VFL中,产生了一种新颖和灵活的方法(称为UIFV),该方法利用中间特征数据来重建原始数据,而不是依赖于梯度或模型细节。中间特征数据是在VFL推理阶段由不同参与者交换的特征。对四个数据集的实验表明,我们的方法在攻击精度方面显著优于最先进的技术。我们的工作揭示了VFL系统中的严重隐私漏洞,对实际VFL应用构成真正的威胁,因此确认了进一步增强VFL架构中隐私保护的必要性。
- 图表
- 解决问题本文旨在解决垂直联邦学习中的隐私泄露问题,尤其是通过数据泄露重构敏感特征的风险。
- 关键思路本文提出了一种新的方法,即利用中间特征数据来重构原始数据,而不是依赖于梯度或模型细节,从而提高了隐私保护的灵活性和效果。
- 其它亮点本文的实验结果表明,该方法在攻击精度方面显著优于现有技术。本文的工作揭示了VFL系统中的严重隐私漏洞,对实际应用构成了真正的威胁,因此确认了在VFL架构中进一步增强隐私保护的必要性。
- 最近的相关研究包括:《Privacy-Preserving Machine Learning: Threats and Solutions》、《Federated Learning: Challenges, Methods, and Future Directions》等。
沙发等你来抢
去评论
评论
沙发等你来抢