- 简介机器遗忘成为实现“被遗忘权”的有前途的解决方案,根据该方案,个人可以要求从机器学习模型中删除其数据。然而,现有的机器遗忘研究主要关注遗忘方法的功效和效率,而忽略了遗忘过程中隐私漏洞的调查。在攻击者可以获得两个版本的模型的情况下,即原始模型和已遗忘模型,机器遗忘开辟了一个新的攻击面。本文是第一次研究机器遗忘在多大程度上会泄露未遗忘数据的机密内容。具体来说,在“机器学习即服务”设置下,我们提出了遗忘反演攻击,可以通过仅访问原始和已遗忘模型来揭示未遗忘样本的特征和标签信息。通过在各种模型架构和精确和近似代表性遗忘方法上进行广泛的基准数据集实验,评估了所提出的遗忘反演攻击的有效性。实验结果表明,所提出的攻击可以揭示未遗忘数据的敏感信息。因此,我们确定了三种可能的防御措施,有助于缓解所提出的攻击,但会降低未遗忘模型的效用。本文的研究揭示了机器遗忘和未遗忘数据隐私之间未被充分探索的差距,强调了需要设计谨慎的机制来实现遗忘而不泄露未遗忘数据信息的必要性。
- 图表
- 解决问题在机器学习中,如何实现用户的“被遗忘权”?机器遗忘是否会泄露敏感信息?
- 关键思路提出了一种机器遗忘逆推攻击方法,可以通过访问原始模型和遗忘模型来揭示遗忘样本的敏感信息,并提出了三种防御机制。
- 其它亮点实验结果表明,机器遗忘逆推攻击可以揭示遗忘数据的敏感信息。该研究揭示了机器遗忘与遗忘数据隐私之间的问题,为实现机器遗忘提供了一些防御机制。
- 目前还没有类似的研究。
沙发等你来抢
去评论
评论
沙发等你来抢