- 简介生成式 AI 图像的出现已经彻底颠覆了艺术界。区分 AI 生成的图像和人类艺术是一个具有挑战性的问题,其影响随着时间的推移而不断增加。如果不解决这个问题,就会让不良分子欺诈那些为人类艺术付出高额费用的个人和那些禁止使用 AI 图像的公司。对于内容所有者来说,建立版权非常关键,对于想要策划训练数据的模型训练者来说,也是避免潜在模型崩溃的关键因素。 区分人类艺术和 AI 图像有几种不同的方法,包括通过监督学习训练的分类器、针对扩散模型的研究工具,以及通过艺术家的艺术技巧来进行识别。在本文中,我们试图了解这些方法在今天的现代生成模型中在良性和对抗性环境下的表现如何。我们收集了7种不同风格的真实人类艺术,从5个生成模型中生成相应的图像,并应用了8个检测器(包括5个自动检测器和3个不同的人类组,包括180个众包工人、4000多名专业艺术家和13名擅长检测 AI 的专家艺术家)。Hive 和专家艺术家的表现都非常好,但是它们的错误方式不同(Hive 对对抗性扰动的鲁棒性较弱,而专家艺术家则产生更高的误报率)。我们相信,随着模型的不断发展,这些弱点将继续存在,并利用我们的数据证明,人类和自动检测器的组合提供了最佳的准确性和鲁棒性。
- 图表
- 解决问题如何区分人工智能生成的图像与人类创作的艺术品?这个问题的解决对于防止欺诈和确立版权非常重要。
- 关键思路将人类专家和自动化检测器结合使用,以提高准确性和鲁棒性。
- 其它亮点论文通过对7种艺术风格的真实艺术作品进行匹配生成,然后使用8种检测器(包括5种自动检测器和3种不同的人类群体)进行检测。结果表明,专业艺术家和Hive检测器都表现出色,但在不同的方面存在一些弱点。论文还探讨了如何在对抗性情况下提高检测器的鲁棒性。
- 近期的相关研究包括《A Large-Scale Study on Regularization and Normalization in GANs》和《Detecting GAN-Generated Images Using Co-occurrence Matrices of Gradient Magnitudes》。
沙发等你来抢
去评论
评论
沙发等你来抢