Visual Privacy Auditing with Diffusion Models

2024年03月12日
  • 简介
    机器学习模型的图像重建攻击可能会泄露敏感信息,对隐私构成重大风险。虽然使用差分隐私(DP)防御此类攻击已被证明是有效的,但确定适当的DP参数仍然具有挑战性。目前,关于数据重建成功的当前形式保证过于理论化,特别是在图像领域中,对于攻击者了解目标数据的假设过于理论化。在本研究中,我们通过实证研究这种差异,并发现这些假设的实用性强烈依赖于数据先验和重建目标之间的领域转移。我们提出了一种基于扩散模型(DMs)的重建攻击,假设攻击者可以访问真实世界的图像先验,并评估其对DP-SGD下隐私泄漏的影响。我们展示了:(1)真实世界的数据先验显著影响重建成功率,(2)当前的重建边界无法很好地模拟数据先验所带来的风险,(3)DMs可以作为有效的审计工具来可视化隐私泄漏。
  • 图表
  • 解决问题
    本文研究如何使用差分隐私(DP)来防御图像重建攻击,其中关键问题是如何确定DP参数。当前的数据重建成功率保证存在过于理论化的假设,特别是在图像领域。本文旨在通过实证研究来探究这种差距,并发现现有的重建边界并未很好地模拟数据先验对隐私泄露的风险。
  • 关键思路
    本文提出了一种基于扩散模型(DMs)的重建攻击,假设攻击者可以访问真实世界的图像先验,并评估其对DP-SGD下隐私泄露的影响。实验结果表明,真实世界的数据先验显着影响重建成功率,现有的重建边界并不能很好地模拟数据先验对隐私泄露的风险,DMs可以作为有效的审计工具来可视化隐私泄露。
  • 其它亮点
    本文的实验结果表明,现有的重建边界并不能很好地模拟数据先验对隐私泄露的风险;本文提出的基于扩散模型(DMs)的重建攻击可以作为有效的审计工具来可视化隐私泄露;本文还提出了一种新的方法来确定DP参数,即使用图像先验来评估隐私泄露风险。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如《Deep Learning with Differential Privacy》、《Differentially Private Learning with Adaptive Clipping》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论