Adversarial Attacks and Defenses on Text-to-Image Diffusion Models: A Survey

2024年07月10日
  • 简介
    最近,由于其出色的图像生成能力,文本到图像扩散模型引起了社区的广泛关注。代表性模型Stable Diffusion发布仅两个月就吸引了超过1000万用户。这种流行趋势促进了对该模型稳健性和安全性的研究,导致提出了各种对抗攻击方法。同时,研究人员也在大量研究防御方法,以提高这些模型的稳健性和安全性。在这项调查中,我们全面回顾了针对文本到图像扩散模型的对抗攻击和防御方法的文献。我们首先概述了文本到图像扩散模型,然后介绍了对抗攻击的分类法和现有攻击方法的深入审查。接着,我们详细分析了当前提高模型稳健性和安全性的防御方法。最后,我们讨论了正在进行的挑战,并探讨了有前途的未来研究方向。有关此调查中涵盖的对抗攻击和防御方法的完整列表,请参阅我们在https://github.com/datar001/Awesome-AD-on-T2IDM上的策划知识库。
  • 图表
  • 解决问题
    本文旨在综述针对文本到图像扩散模型的对抗攻击和防御方法,探讨该模型的鲁棒性和安全性。
  • 关键思路
    本文提供了一个对对抗攻击和防御方法的分类,详细介绍了现有的攻击方法和防御方法,并讨论了未来的研究方向。
  • 其它亮点
    本文介绍了一个针对文本到图像扩散模型的对抗攻击和防御方法的综述,提供了一个对现有攻击和防御方法的分类和详细介绍,并提供了一个开源的代码库。实验使用了多个数据集,探讨了不同攻击和防御方法的效果,为该领域的研究提供了重要的参考。
  • 相关研究
    最近的相关研究包括对其他生成模型的对抗攻击和防御方法的研究,如GAN和VAE,以及对文本到图像生成的其他方法的研究,如GAN和变分自编码器。相关论文包括:“Generative Adversarial Networks”和“Variational Autoencoders for Generative Modeling”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论