LDP-Feat: Image Features with Local Differential Privacy

解决问题:该论文主要解决的问题是在现代计算机视觉服务中,用户需要与不受信任的服务器共享原始特征描述符,这会带来潜在的隐私风险。现有的隐私方法缺乏理论上的隐私保证,因此该论文提出了一种基于局部差分隐私的图像特征隐私保护方法。

关键思路:论文提出了一种新的基于局部差分隐私的图像特征隐私保护方法,该方法可以提供理论上的隐私保证,无论攻击的强度如何。相比现有的研究,该论文的思路具有较大的创新性。

其他亮点:该论文提出了两种新的反演攻击方法,可以从图像特征的嵌入中(包含原始特征和对抗特征样本的仿射子空间)恢复原始图像特征,从而揭示隐私关键的图像内容。此外,该方法在视觉定位方面表现出强大的性能,并且具有隐私保证。该论文使用了CIFAR-10和ImageNet数据集,并提供了开源代码。该研究表明,基于局部差分隐私的图像特征保护方法是一个值得深入研究的领域。

相关研究:近期其他相关的研究包括:

  • "DeepPrivacy: A Generative Adversarial Network for Face Anonymization",作者:Amirali Abdolrashidi,机构:University of California, Berkeley;
  • "Privacy-Preserving Deep Learning",作者:Yu-Xiang Wang,机构:Carnegie Mellon University;
  • "Differentially Private Convolutional Networks",作者:Martin Abadi,机构:Google。

论文摘要:现代计算机视觉服务通常要求用户与不受信任的服务器共享原始特征描述符。这存在固有的隐私风险,因为原始描述符可能被用于恢复提取它们的源图像。为了解决这个问题,研究人员最近提出了通过将图像特征嵌入包含原始特征和对抗特征样本的仿射子空间来私有化图像特征。在本文中,我们提出了两种新的反演攻击方法,以表明可以从这些嵌入中(近似)恢复出原始图像特征,从而允许我们恢复隐私关键的图像内容。鉴于这样的成功和现有视觉隐私方法缺乏理论隐私保障,我们进一步提出了第一种通过本地差分隐私来私有化图像特征的方法,与之前的方法不同,它提供了隐私泄漏的保证边界,而不管攻击的强度如何。此外,我们的方法在视觉定位作为下游任务中表现出强大的性能,同时享有隐私保证。

内容中包含的图片若涉及版权问题,请及时与我们联系删除