Mixed Diffusion for 3D Indoor Scene Synthesis

2024年05月31日
  • 简介
    这段摘要介绍了一种名为MiDiffusion的混合离散-连续扩散模型,用于从给定的房间类型、平面图和可能存在的物体中合成逼真的3D室内场景。作者表示,该方法在混合离散语义和连续几何领域实现了结构化损坏,从而为反向去噪步骤提供了更好的条件。作者在3D-FRONT数据集上进行了实验,结果表明MiDiffusion在地板条件下的3D场景合成方面明显优于现有的自回归和扩散模型。此外,该模型可以通过损坏和遮盖策略处理部分对象约束,无需特定任务的训练。作者还展示了MiDiffusion在场景完成和家具布置实验中相对于现有方法的明显优势。
  • 图表
  • 解决问题
    MiDiffusion论文试图解决的问题是如何从给定的房间类型、平面图和物品集合中合成出逼真的3D室内场景。这是一个新问题。
  • 关键思路
    MiDiffusion采用了混合离散-连续扩散模型架构,通过结构化的混合离散语义和连续几何域的污染,实现了更好的反去噪步骤条件,从而更好地合成3D场景。
  • 其它亮点
    论文在3D-FRONT数据集上进行了实验,结果表明MiDiffusion在地板条件下的3D场景合成中表现优异,并且可以通过污染和掩蔽策略处理部分物体约束。此外,论文还比较了MiDiffusion和现有方法在场景完成和家具布置实验中的表现。
  • 相关研究
    最近的相关研究包括使用扩散模型进行无序集合的精确排列和使用自回归模型进行3D场景合成。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论