Back-in-Time Diffusion: Unsupervised Detection of Medical Deepfakes

2024年07月21日
  • 简介
    最近生成模型的进展使得广大观众更容易编辑和创建图像内容,引起了对深度伪造技术的担忧,尤其是在医疗保健领域。尽管有许多技术可用于检测常规相机拍摄的篡改图像,但它们对医学图像的适用性有限。这种限制源于医学图像的独特取证特征,这是由其成像过程造成的。 在这项工作中,我们提出了一种基于扩散模型的医学图像异常检测器。通常,扩散模型用于生成图像。但是,我们展示了如何使用类似的过程来检测合成内容,即通过使模型反向扩散来检测疑似图像。我们评估了我们的方法,用于检测注入和从CT和MRI扫描中移除的假肿瘤。我们的方法在无监督检测器方面表现优异,平均增加了0.9的AUC(从0.79增加)用于注入,以及0.96的AUC(从0.91增加)用于移除。
  • 图表
  • 解决问题
    本论文的问题是如何检测医学图像中的深度伪造。传统图像检测方法在医学图像中的适用性受到限制,因此需要提出一种新的方法。
  • 关键思路
    本论文提出了一种基于扩散模型的异常检测器,用于检测医学影像中的深度伪造。该方法通过使模型反向扩散来检测合成内容。相比于其他现有的无监督检测器,该方法在注入和移除任务中的AUC值均有显著提高。
  • 其它亮点
    本论文的亮点在于提出了一种新的方法来检测医学图像中的深度伪造。实验使用了CT和MRI扫描中注入和移除的假肿瘤数据集。该方法在注入和移除任务中的AUC值均有显著提高。本论文的代码已经开源。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如:'A Survey on Deep Learning Techniques for Image and Video Anomaly Detection','Learning to Detect Fake Face Images in the Wild'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论