A Survey of Defenses against AI-generated Visual Media: Detection, Disruption, and Authentication

2024年07月15日
  • 简介
    深度生成模型在各种计算机视觉应用中表现出了惊人的性能,包括图像合成、视频生成和医学分析等。尽管它们取得了显著的进展,但这些模型也可能被用于恶意目的,例如误导、欺骗和侵犯版权。本文系统地和及时地回顾了针对人工智能生成的视觉媒体进行防御的研究工作,包括检测、干扰和认证。我们回顾了现有的方法,并总结了主流的防御相关任务,采用了统一的被动和主动框架。此外,我们还调查了与防御的可信度相关的派生任务,例如它们的稳健性和公平性。对于每个任务,我们阐述了它的一般流程,并提出了一种基于方法论策略的分类方法,这种方法可以统一应用于主要的子任务。此外,我们还总结了常用的评估数据集、标准和指标。最后,通过分析已经评估的研究,我们提供了当前研究面临的挑战的见解,并提出了未来研究的可能方向。
  • 图表
  • 解决问题
    本文旨在对针对人工智能生成的视觉媒体进行防御的研究进行系统和及时的综述,涵盖检测、干扰和认证等方面的内容。同时,还探讨了防御可信度的相关任务,如其鲁棒性和公正性。
  • 关键思路
    本文提出了一个统一的被动和主动防御框架,对主要的子任务进行分类,并提出了一些方法论策略,对每个任务进行了总体流程的阐述。此外,还概述了常用的评估数据集、标准和度量。
  • 其它亮点
    本文综述了当前防御人工智能生成的视觉媒体的研究进展,并提出了一些未来研究的方向,例如对抗性攻击的研究、可解释性的研究等。同时,还介绍了常用的数据集、指标和评估方法。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,例如《Adversarial Examples: Attacks and Defenses for Deep Learning》、《Towards Evaluating the Robustness of Neural Networks》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论