Mamba24/8D: Enhancing Global Interaction in Point Clouds via State Space Model

2024年06月25日
  • 简介
    Transformer模型已经在3D点云语义分割方面展示出令人印象深刻的结果。然而,Transformer的二次复杂度使得计算成本高,限制了可以同时处理的点的数量,并阻碍了对长距离依赖关系的建模。受最近状态空间模型(SSM)对长序列建模的巨大潜力的启发,我们将基于SSM的架构Mamba引入到点云领域,并提出了Mamba24/8D,它具有线性复杂度下的强大全局建模能力。具体来说,为了使点云的无序性与Mamba的因果性质相适应,我们提出了一种适用于点云的多路径串行化策略。此外,我们提出了ConvMamba块来弥补Mamba在建模局部几何和单向建模方面的缺点。Mamba24/8D在几个3D点云分割任务中,包括ScanNet v2、ScanNet200和nuScenes,获得了最先进的结果,其有效性得到了广泛的实验验证。
  • 作者讲解
  • 图表
  • 解决问题
    论文旨在解决3D点云语义分割中transformer计算成本高、难以处理大量点和长距离依赖性的问题,提出了一种基于状态空间模型的Mamba架构,以及ConvMamba块来弥补Mamba在建模局部几何和单向建模方面的不足。
  • 关键思路
    Mamba架构基于状态空间模型,具有线性复杂度和强大的全局建模能力。同时,为了适应点云的无序性,提出了一种适用于点云的多路径串行化策略。
  • 其它亮点
    Mamba24/8D在多个3D点云分割任务中取得了最先进的结果,包括ScanNet v2、ScanNet200和nuScenes。实验结果验证了Mamba的有效性。
  • 相关研究
    最近的相关研究包括Point Transformer、RandLA-Net和KPConv等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问