- 简介场景图因其紧凑和明确的特点,在各种场景理解任务中被证明是有用的。然而,现有的方法通常忽视从三维点云生成场景图时保持对称性的重要性。这种疏忽可能会降低生成的场景图的准确性和鲁棒性,特别是在处理嘈杂的、多视角的三维数据时。据我们所知,本文是首次在从三维点云生成语义场景图的场景理解中实现等变图神经网络。我们提出的方法ESGNN优于现有的最先进方法,显示出场景估计的显著改进和更快的收敛。ESGNN需要较低的计算资源,并且易于从可用的框架实现,为机器人和计算机视觉等实时应用铺平了道路。
-
- 图表
- 解决问题论文旨在解决从3D点云生成场景图时忽略对称性保持的问题,提高场景估计的准确性和鲁棒性。
- 关键思路论文提出了一种使用等变图神经网络在语义场景图生成中保持对称性的方法,名为ESGNN。该方法在场景估计方面表现出比现有技术更快的收敛速度和更高的准确性。
- 其它亮点论文使用了多个数据集来评估ESGNN的性能,并与现有技术进行了比较。实验结果表明,ESGNN在场景估计方面具有显著的优势,并且具有低计算资源需求和易于实现的特点。论文还开源了代码。
- 与本文相关的研究包括:'Joint 3D Proposal Generation and Object Detection from View Aggregation','3D-RCNN: Instance-level 3D Object Reconstruction via Render-and-Compare','3D-SIS: 3D Semantic Instance Segmentation of RGB-D Scans'等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流