- 简介Transformer模型已经在3D点云语义分割方面展示出令人印象深刻的结果。然而,Transformer的二次复杂度使得计算成本高,限制了可以同时处理的点的数量,并阻碍了对长距离依赖关系的建模。受最近状态空间模型(SSM)对长序列建模的巨大潜力的启发,我们将基于SSM的架构Mamba引入到点云领域,并提出了Mamba24/8D,它具有线性复杂度下的强大全局建模能力。具体来说,为了使点云的无序性与Mamba的因果性质相适应,我们提出了一种适用于点云的多路径串行化策略。此外,我们提出了ConvMamba块来弥补Mamba在建模局部几何和单向建模方面的缺点。Mamba24/8D在几个3D点云分割任务中,包括ScanNet v2、ScanNet200和nuScenes,获得了最先进的结果,其有效性得到了广泛的实验验证。
-
- 图表
- 解决问题论文旨在解决3D点云语义分割中transformer计算成本高、难以处理大量点和长距离依赖性的问题,提出了一种基于状态空间模型的Mamba架构,以及ConvMamba块来弥补Mamba在建模局部几何和单向建模方面的不足。
- 关键思路Mamba架构基于状态空间模型,具有线性复杂度和强大的全局建模能力。同时,为了适应点云的无序性,提出了一种适用于点云的多路径串行化策略。
- 其它亮点Mamba24/8D在多个3D点云分割任务中取得了最先进的结果,包括ScanNet v2、ScanNet200和nuScenes。实验结果验证了Mamba的有效性。
- 最近的相关研究包括Point Transformer、RandLA-Net和KPConv等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流