Diffence: Fencing Membership Privacy With Diffusion Models

2023年12月07日
  • 简介
    深度学习模型在各种任务中表现出色,但容易受到成员推理攻击的威胁,攻击者可以确定特定数据点是否是模型训练集的一部分。这种易受攻击的情况引起了极大的隐私关注,特别是当模型是基于敏感数据集进行训练时。目前的防御方法通常难以在不影响模型效用的情况下提供强大的保护,并且通常需要重新训练模型或使用额外的数据。在本研究中,我们引入了一种新的防御框架,利用生成模型来防御成员推理攻击。我们的防御的关键思路是通过在将输入样本提供给目标模型之前重新生成输入样本,消除成员和非成员输入之间的差异,这些差异可用于执行成员推理攻击。因此,我们的防御是预推理的,这与之前的防御方法不同,这些方法通常是训练时(修改模型)或后推理时(修改模型的输出)。我们防御的一个独特特点是仅针对输入样本进行操作,而不修改目标模型的训练或推理阶段。因此,我们的方法可以与其他防御机制级联,如实验所示。通过广泛的实验,我们展示了我们的方法可以作为一个强大的即插即用的防御机制,提高成员隐私而不影响基线和防御设置中的模型效用。例如,我们的方法提高了最近最先进的防御机制的有效性,在三个数据集上将攻击准确率平均降低了5.7%至12.4%,而不影响模型的准确性。通过将我们的方法与之前的防御机制集成,我们在隐私效用权衡方面实现了新的最先进性能。
  • 图表
  • 解决问题
    本文旨在提出一种新的防御框架,利用生成模型来防御成员推理攻击,以提高模型的隐私性。当前的防御方法通常需要重新训练模型或使用额外的数据,而且往往难以在不影响模型效用的情况下提供强大的保护。
  • 关键思路
    本文提出的防御方案是在输入样本中使用生成模型,通过重新生成输入样本来消除成员和非成员输入之间的差异,从而提高模型的隐私性。这种方法不需要修改目标模型的训练或推断阶段,因此可以与其他防御机制级联使用。
  • 其它亮点
    本文的方法可以作为一个强大的即插即用的防御机制,不会影响模型的效用。实验结果表明,本文的方法可以增强最新的防御方法的效果,平均降低攻击准确率5.7%至12.4%,并且可以与其他防御机制级联使用,从而在隐私性和效用之间实现新的最优性能。
  • 相关研究
    最近的相关研究包括使用深度学习模型提高隐私性的方法,以及使用不同的防御机制来提高模型的隐私性。例如,最近的研究包括“Membership Inference Attacks against Machine Learning Models”和“Privacy-preserving Deep Learning”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论