ContourDiff: Unpaired Image Translation with Contour-Guided Diffusion Models

2024年03月16日
  • 简介
    精准地将不同模态(例如,CT到MRI)的医学图像进行翻译,具有许多临床和机器学习应用。虽然已经提出了几种方法来实现这一点,但它们通常优先考虑输出域特征的感知质量,而不是保留解剖保真度。然而,在翻译过程中保持解剖结构对于许多任务至关重要,例如,利用来自输入域的掩模开发将翻译为输出域的图像的分割模型。为了解决这些挑战,我们提出了ContourDiff,这是一个新颖的框架,利用图像的域不变解剖轮廓表示。这些表示从图像中提取简单,但对其解剖内容形成精确的空间约束。我们介绍了一个扩散模型,将任意输入域的图像的轮廓表示转换为感兴趣的输出域中的图像。通过在每个扩散采样步骤中应用轮廓作为约束,我们确保了解剖内容的保留。我们通过训练一个基于CT到MRI翻译的分割模型,并使用原始CT掩模对其进行测试,来评估我们的方法在真实的MRI上的表现。我们的方法的性能显著优于其他非配对图像翻译方法,而且在训练过程中不需要访问任何输入域信息。
  • 图表
  • 解决问题
    解决医学图像跨模态转换中,保持解剖学准确性的问题
  • 关键思路
    使用轮廓表示法作为解剖学内容的空间约束,通过扩散模型将输入域的轮廓表示转换为输出域的图像,保持解剖学准确性
  • 其它亮点
    实验表明该方法在医学图像分割任务上的表现优于其他无配对图像转换方法,无需访问训练过程中的输入域信息
  • 相关研究
    其他无配对图像转换方法,如CycleGAN、UNIT等
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论