PhyScene: Physically Interactable 3D Scene Synthesis for Embodied AI

2024年04月15日
  • 简介
    随着最近在具身人工智能(EAI)研究中的发展,对高质量、大规模交互式场景生成的需求不断增长。虽然先前的场景合成方法优先考虑了所生成场景的自然度和真实感,但场景的物理可行性和交互性则基本未被探索。为了解决这一差距,我们引入了PhyScene,这是一种专门用于生成交互式三维场景的新方法,其特点是具有逼真的布局、关节对象和丰富的物理交互,适用于具身代理。基于用于捕捉场景布局的条件扩散模型,我们设计了新颖的基于物理和交互的指导机制,将物体碰撞、房间布局和物体可达性的约束集成在一起。通过大量实验,我们证明了PhyScene有效地利用了这些指导函数来进行物理交互式场景合成,远远超过了现有最先进的场景合成方法。我们的研究结果表明,PhyScene生成的场景具有促进交互环境中代理人多样技能习得的潜力,从而推动具身人工智能研究的进一步发展。项目网站:http://physcene.github.io。
  • 图表
  • 解决问题
    论文旨在解决交互式场景生成中的物理可行性和互动性问题,以促进基于实体智能的研究进展。
  • 关键思路
    PhyScene是一种基于条件扩散模型的交互式3D场景生成方法,通过物理和互动指导机制整合对象碰撞、房间布局和对象可达性等约束条件,实现了物理交互场景的有效合成。
  • 其它亮点
    论文通过广泛的实验验证了PhyScene方法的有效性和优越性,并展示了生成的场景对于促进实体智能代理的多样技能习得具有潜在价值。
  • 相关研究
    该领域的相关研究包括:基于深度学习的场景合成方法,如GQN、DPSNet等;基于物理引擎的仿真方法,如MuJoCo、Habitat-Sim等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论