- 简介本文研究了通过张量分解进行网络压缩的有效性,以解决在临床环境中部署先进深度学习分割模型的计算难题。我们提出了一种后训练Tucker分解的方法,可以对现有模型进行分解,以减少计算需求而不影响分割准确性。我们将Tucker分解应用于TotalSegmentator(TS)模型的卷积核上,该模型是一个基于全面数据集训练的nnU-Net模型,用于自动分割117个解剖结构。我们的方法减少了推理过程中所需的浮点运算(FLOPs)和内存,提供了可调节的计算效率和分割质量之间的平衡。本研究利用公开可用的TS数据集,采用不同的下采样因子来探索模型大小、推理速度和分割性能之间的关系。将Tucker分解应用于TS模型,可以在不同的压缩率下显著减少模型参数和FLOPs,并在有限的分割准确性损失下进行微调。我们删除了高达88%的模型参数,大多数类别的性能没有显著变化。实际效益因不同的图形处理单元(GPU)架构而异,在性能较弱的硬件上有更明显的加速效果。通过Tucker分解进行后处理的网络压缩是减少医学图像分割模型计算需求的可行策略,而不会大幅牺牲准确性。这种方法使先进的深度学习技术在临床实践中得以广泛应用,为解决硬件能力的限制提供了一种途径。
- 图表
- 解决问题本论文旨在解决在临床环境中部署先进深度学习分割模型所面临的计算障碍,并通过张量分解研究网络压缩的有效性。
- 关键思路论文提出了一种基于Tucker分解的后训练压缩方法,可以在不影响分割准确性的情况下降低模型的计算需求。
- 其它亮点论文使用了TS数据集进行实验,并尝试了不同的下采样因子来探索模型大小、推理速度和分割性能之间的关系。结果表明,Tucker分解可以显著减少模型参数和浮点运算量,而不会对大多数类别的性能产生显著影响。在不同GPU架构上,实现了不同程度的加速。这种后续网络压缩方法可以在不显著牺牲准确性的情况下降低医学图像分割模型的计算需求。
- 在最近的研究中,还有其他相关的网络压缩方法,例如剪枝、量化和知识蒸馏。
沙发等你来抢
去评论
评论
沙发等你来抢