- 简介生成式人工智能模型可以根据文本提示生成高质量的图像。这些生成的图像通常与由传统光学摄影设备生成或由人类艺术家创作的真实图像无法区分。虽然这种生成模型的出色性能通常受到好评,但也引起了安全方面的担忧。例如,这种图像生成器可以用于促进欺诈或骗局计划,生成和传播错误信息,或制作虚假艺术品。在本文中,我们对理解和检测在对抗情况下生成的AI图像(AI艺术)进行了系统性的尝试。首先,我们收集并分享了一个由四个流行的AI图像生成器生成的真实图像及其对应的人工图像的数据集。该数据集名为ARIA,包含五个类别的超过14万张图像:艺术品(绘画),社交媒体图像,新闻照片,灾难场景和动漫图片。这个数据集可以作为未来对抗性AI艺术研究的基础。接下来,我们进行了一个用户研究,利用ARIA数据集评估真实世界的用户是否可以区分有或没有参考图像。在一个基准研究中,我们进一步评估了最先进的开源和商业AI图像检测器是否能够有效地识别ARIA数据集中的图像。最后,我们提出了一个ResNet-50分类器,并评估其在ARIA数据集上的准确性和可转移性。
- 图表
- 解决问题本论文试图解决生成对抗网络(GAN)生成的图像在安全方面可能带来的问题,例如欺诈、虚假信息传播、艺术品伪造等。作者收集并分享了一个包含140K张真实图像及其对应的四个流行AI图像生成器生成的图像的数据集ARIA,用于未来对抗性AI艺术研究。
- 关键思路本论文的关键思路是收集并分享一个大规模的数据集ARIA,用于未来对抗性AI艺术研究,并探索用户和AI图像检测器是否能够区分真实图像和AI生成的图像。
- 其它亮点论文使用了一个包含五个类别的数据集ARIA,进行了用户研究和AI图像检测器的基准测试,并提出了一个ResNet-50分类器并在ARIA数据集上进行了评估。此外,作者还提出了未来对抗性AI艺术研究的一些方向和挑战,例如如何生成更加逼真的AI图像以及如何防范对抗性攻击。
- 最近的相关研究包括:《Generative Adversarial Networks》、《Detecting and Attributing Deepfake Videos》、《Adversarial Examples in the Physical World》等。
沙发等你来抢
去评论
评论
沙发等你来抢