SceneFormer: Indoor Scene Generation with Transformers 论文链接:https://arxiv.org/abs/2012.09793 作者单位:慕尼黑工业大学 性能优于PlanIT、DeepSynth等方法,能在1.48秒内生成一个3D场景,比目前最先进的快速方法还要快20%!
室内场景生成的任务是生成一系列物体,它们的位置和方向取决于房间的形状和大小。大规模的室内场景数据集使我们能够从用户设计的室内场景中提取patterns,然后基于这些patterns生成新的场景。现有方法除了对象位置之外还依赖于这些场景的2D或3D外观,并假设对象之间的可能关系。相反,我们不使用任何外观信息,而是使用Transformer的自注意机制来学习对象之间的关系。我们证明,与具有相同或更好水平真实感的现有方法相比,这可以更快地生成场景。我们仅根据Transformer的交叉注意机制,建立基于房间形状和房间文字描述的简单有效的生成模型。我们进行了一项用户研究,结果显示,生成的场景比DeepSynth场景在卧室场景中占57.7%的时间,在客厅场景中占63.3%的时间更受青睐。此外,我们平均可以在1.48秒内生成一个场景,比最先进的快速灵活方法快20%,从而可以生成交互式场景。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢