- 简介生成模型在创建高质量视频方面的惊人成就引发了数字完整性和隐私漏洞的担忧。最近的作品为打击Deepfakes视频开发了高度准确的检测器,可以识别GAN生成的样本。然而,这些检测器对于从视频创作工具(例如OpenAI的SORA、Runway Gen-2和Pika等)生成的扩散生成视频的鲁棒性仍未得到探索。在本文中,我们提出了一个新的框架,用于检测从多个最先进的生成模型(如稳定视频扩散)合成的视频。我们发现,用于检测扩散生成图像的最先进方法在识别扩散生成视频方面缺乏鲁棒性。我们的分析揭示了这些检测器的有效性在应用于域外视频时会降低,主要是因为它们难以跟踪帧之间的时间特征和动态变化。为了解决上述挑战,我们使用SOTA视频创作工具收集了一个新的扩散生成视频基准数据集。我们从扩散模型中提取视频帧的显式知识表示,并用CNN + LSTM架构训练我们的检测器。评估结果显示,我们的框架可以很好地捕捉帧之间的时间特征,对于域内视频实现了93.7%的检测准确度,并将域外视频的准确度提高了16个百分点。
- 图表
- 解决问题本文旨在解决生成模型制作高质量视频所带来的数字完整性和隐私漏洞问题,并提出一种新的框架来检测由多个最先进的生成模型合成的视频。
- 关键思路本文提出了一种新的检测框架,使用CNN + LSTM架构从扩散模型中提取显式知识表示视频帧,并成功捕捉了帧之间的时间特征,提高了跨领域视频的检测准确性。
- 其它亮点本文收集了一个新的基准视频数据集,使用最先进的视频创建工具生成扩散生成的视频,并提出了一种新的检测框架来解决检测扩散生成视频的挑战。实验表明,该框架可以在领域内实现93.7%的检测准确性,并将跨领域视频的准确性提高了16个百分点。
- 最近的相关研究包括Deepfakes视频检测和使用GAN生成高质量视频的研究。
沙发等你来抢
去评论
评论
沙发等你来抢