- 简介创建3D医学数据的注释是耗时的,通常需要高度专业化的专业知识。已经实现了各种工具来帮助这个过程。Segment Anything Model 2(SAM 2)提供了一个通用的基于提示的分割算法,旨在注释视频。在本文中,我们将这个模型改编为注释3D医学图像,并以扩展的形式提供我们的实现,即流行的注释软件3D Slicer。我们的扩展允许用户在2D切片上放置点提示来生成注释掩模,并以单向或双向方式在整个体积中传播这些注释。我们的代码可以在https://github.com/mazurowski-lab/SlicerSegmentWithSAM上公开获取,并且可以直接从3D Slicer的扩展管理器中轻松安装。
-
- 图表
- 解决问题本文旨在解决3D医学数据的注释问题,提供一种基于SAM 2算法的注释方法,并在3D Slicer软件中实现该方法的扩展。
- 关键思路本文将SAM 2算法应用于3D医学图像的注释,通过在2D切片上放置点提示生成注释掩模,并以单向或双向方式在整个体积中传播这些注释。
- 其它亮点本文提供了一个适用于3D医学图像注释的新方法,并在3D Slicer软件中实现了该方法的扩展。作者公开了代码并提供了可在扩展管理器中直接安装的方式。实验设计合理,使用了公开数据集进行验证。
- 在相关研究中,也有一些基于深度学习的3D医学图像注释方法,例如:"Automatic Liver and Tumor Segmentation of CT and MRI Volumes Using Cascaded Fully Convolutional Neural Networks"(2018)和"V-net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation"(2016)。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流