- 简介近年来,基于大规模数据集训练的生成模型的最新进展使得在各个领域中合成高质量样本成为可能。此外,强大的倒置网络的出现不仅使得真实世界图像的重建成为可能,还通过各种编辑方法实现了属性的修改。然而,在涉及隐私问题的某些领域,例如人脸,先进的生成模型以及强大的倒置方法可能导致潜在的误用。本文提出了一项基本但鲜为人知的任务,即生成式身份遗忘,其目的是使模型不生成特定身份的图像。在生成式身份遗忘中,我们的目标是:(i) 防止生成具有特定身份的图像,以及(ii) 保留生成模型的整体质量。为了实现这些目标,我们提出了一个新颖的框架,即适用于任何身份的生成式遗忘(GUIDE),通过仅使用单个图像来遗忘生成器,从而防止重构特定身份。GUIDE由两部分组成:(i) 寻找优化的目标点,使其不再识别源潜在代码,以及(ii) 新颖的损失函数,有助于遗忘过程,同时对学习的分布影响较小。我们广泛的实验表明,我们提出的方法在生成式机器遗忘任务中达到了最先进的性能。代码可在https://github.com/KHU-AGI/GUIDE获得。
- 图表
- 解决问题论文提出了一个新的任务,即生成身份学习(generative identity unlearning),旨在通过学习不生成某个特定身份的图像,来避免潜在的隐私问题。
- 关键思路论文提出了一种名为GUIDE的框架,通过在仅使用单张图像的情况下,找到一个目标点进行优化,从而使生成器不再生成某个特定身份的图像。GUIDE框架包含两部分:寻找优化的目标点和新的损失函数,以促进忘却过程,同时不太影响学习到的分布。
- 其它亮点论文在多个数据集上进行了实验,并展示了GUIDE框架在生成身份学习任务上的优越性能。此外,论文还提供了代码可供使用。
- 最近,一些研究关注于隐私问题,例如生成对抗网络(GAN)中的隐私保护和身份学习。相关研究包括“Protecting Privacy with Generative Adversarial Networks (GANs): Anonymization and Deanonymization”和“Learning to Protect Communications with Adversarial Networks”。
沙发等你来抢
去评论
评论
沙发等你来抢