xLSTM-UNet can be an Effective 2D & 3D Medical Image Segmentation Backbone with Vision-LSTM (ViL) better than its Mamba Counterpart

2024年07月01日
  • 简介
    卷积神经网络(CNN)和视觉Transformer(ViT)在生物医学图像分割中发挥了关键作用,但它们管理长程依赖性的能力仍受到固有的局部性和计算开销的限制。为了克服这些挑战,在这份技术报告中,我们首先提出了xLSTM-UNet,这是一个采用Vision-LSTM(xLSTM)作为其骨干的UNet结构深度学习神经网络,用于医学图像分割。xLSTM是最近提出的LSTM网络的继任者,已经在神经语言处理(NLP)和图像分类中展示了比Transformer和状态空间模型(SSM)如Mamba更优越的性能(如在Vision-LSTM或ViL实现中展示)。在这里,我们设计的xLSTM-UNet扩展了生物医学图像分割领域的成功。通过将卷积层的局部特征提取能力与xLSTM的长程依赖捕获能力相结合,xLSTM-UNet为全面的图像分析提供了一个强大的解决方案。我们通过实验验证了xLSTM-UNet的有效性。我们的研究结果表明,xLSTM-UNet在包括腹部MRI器官、内窥镜图像中的仪器和显微镜图像中的细胞等多个生物医学分割数据集中始终优于领先的基于CNN、Transformer和Mamba的分割网络。通过进行全面的实验,这份技术报告突显了xLSTM-based架构在推进二维和三维生物医学图像分析方面的潜力。代码、模型和数据集可在http://tianrun-chen.github.io/xLSTM-UNet/上公开获取。
  • 解决问题
    本论文旨在解决生物医学图像分割中长距离依赖关系的问题,提出了一种使用Vision-LSTM作为骨干网络的xLSTM-UNet深度学习神经网络,以综合图像分析的方式进行生物医学图像分割。
  • 关键思路
    论文的关键思路是将卷积层的局部特征提取能力与xLSTM的长距离依赖捕捉能力相结合,提出了xLSTM-UNet深度学习网络,以解决生物医学图像分割中的局限性和计算开销问题。
  • 其它亮点
    论文通过实验验证了xLSTM-UNet在多个生物医学图像分割数据集中的优越性,并与CNN、Transformer和Mamba等分割网络进行了比较。此外,论文还提供了代码、模型和数据集的公开资源。
  • 相关研究
    最近的相关研究包括使用CNN和Transformer进行生物医学图像分割的研究,如U-Net、SegNet、DeepLab等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论