- 简介虽然深度神经网络(DNN)在与感知和控制相关的任务中表现出了出色的性能,但仍存在一些有关其训练数据隐私的未解决问题,特别是在会员推理攻击(MIAs)的易受攻击性方面。在本文中,我们探讨了会员推理攻击易受攻击和基于蒸馏的功能窃取攻击易受攻击之间的联系。具体而言,我们提出了一种基于蒸馏引导的黑盒神经网络会员推理攻击方法{GLiRA}。我们观察到,知识蒸馏显着提高了会员推理攻击的可能性比率的效率,特别是在黑盒设置下,即目标模型的架构对攻击者不知情的情况下。我们在多个图像分类数据集和模型上评估了所提出的方法,并证明在知识蒸馏的引导下进行的可能性比率攻击在黑盒设置下优于当前最先进的会员推理攻击。
- 图表
- 解决问题本文旨在解决深度神经网络在隐私保护方面的问题,特别是在会员推断攻击方面的脆弱性。
- 关键思路本文提出了一种基于知识蒸馏的黑盒神经网络成员推断攻击的方法,称为GLiRA。作者发现,知识蒸馏显著提高了成员推断攻击的似然比效率,特别是在黑盒设置下。
- 其它亮点本文在多个图像分类数据集和模型上进行了评估,并证明了在知识蒸馏的指导下进行的成员推断攻击,在黑盒设置下优于当前最先进的成员推断攻击。作者还提供了开源代码。
- 与此相关的最近研究包括:《Membership Inference Attacks and Defenses in Training of Deep Neural Networks》、《Deep Models Under the GAN: Information Leakage from Collaborative Deep Learning》等。


提问交流