- 简介模型反演攻击旨在利用输出信息从发布的模型中重建隐私敏感的训练数据,这引起了对深度神经网络(DNN)安全性的广泛关注。生成对抗网络(GAN)的最新进展对MI攻击的性能提升做出了重要贡献,因为它们具有生成具有高保真度和适当语义的逼真图像的强大能力。然而,以前的MI攻击仅在GAN先验的潜在空间中披露了私人信息,限制了它们的语义提取和可转移性跨多个目标模型和数据集。为了解决这个挑战,我们提出了一种新的方法,中间特征增强的生成模型反演(IF-GMI),它拆解了GAN结构并利用中间块之间的特征。这使我们能够将优化空间从潜在代码扩展到具有增强表现能力的中间特征。为了防止GAN先验生成不现实的图像,我们在优化过程中应用了L1球约束。在多个基准测试上的实验表明,我们的方法明显优于以前的方法,在各种设置下均取得了最先进的结果,特别是在分布外(OOD)情况下。我们的代码可在以下网址找到:https://github.com/final-solution/IF-GMI。
- 图表
- 解决问题解决Model Inversion (MI)攻击中,仅能在GAN先验的潜在空间中披露隐私信息的问题,限制了语义提取和可转移性。本文旨在提出一种新方法,扩展优化空间,从而提高表现。
- 关键思路本文提出Intermediate Features enhanced Generative Model Inversion (IF-GMI)方法,利用中间块之间的特征,将GAN结构拆分,从而将优化空间从潜在空间扩展到中间特征,增强了表达能力。
- 其它亮点实验表明,IF-GMI方法在多个基准测试中均显著优于以前的方法,并在各种设置下实现了最先进的结果,特别是在分布外(OOD)情况下。代码已经开源。
- 最近的相关研究包括:《Model Inversion Attacks that Exploit Confidence Information and Basic Countermeasures》、《Membership Inference Attacks against Machine Learning Models》等。
沙发等你来抢
去评论
评论
沙发等你来抢