- 简介海马体是与各种精神障碍相关的关键脑结构,其自动和精确的分割对于研究这些疾病至关重要。近年来,基于深度学习的方法在海马体分割方面取得了显著进展。然而,训练深度神经网络模型需要大量的计算资源和时间,以及大量标记的训练数据,在医学图像分割中往往难以获得。为了解决这个问题,我们提出了一种新的参数高效微调方法,称为LoRA-PT。该方法将预训练的BraTS2021数据集上的UNETR模型转移到海马体分割任务上。具体而言,LoRA-PT方法将变压器结构的参数矩阵分为三个大小,形成三个3D张量。通过张量奇异值分解,这些张量被分解为具有主奇异值和奇异向量的低秩张量,而剩余的奇异值和向量形成残差张量。类似于LoRA方法,在参数微调期间,我们仅更新低秩张量,即主张量奇异值和向量,同时保持残差张量不变。我们在三个公共海马体数据集上验证了所提出的方法。实验结果表明,LoRA-PT在分割精度方面优于现有的参数高效转移学习方法,同时显着减少了参数更新的数量。
- 图表
- 解决问题本论文旨在解决大脑海马结构自动分割的问题,该问题与多种精神疾病有关,但深度学习模型的训练需要大量标记的训练数据和计算资源,因此难以解决。
- 关键思路本文提出了一种新的参数高效的微调方法LoRA-PT,通过对转换器结构的参数矩阵进行张量奇异值分解,将三个大小的张量分解为主奇异值和奇异向量生成低秩张量,而剩余的奇异值和向量形成残差张量。在参数微调期间,只更新低秩张量,即主张量奇异值和向量,而保持残差张量不变。
- 其它亮点本文在三个公共海马数据集上验证了LoRA-PT方法,实验结果表明,相对于现有的参数高效的迁移学习方法,在分割准确性方面表现更好,同时显著减少了参数更新次数。
- 在海马结构分割领域,近年来已经出现了一些基于深度学习的方法,如UNet、VNet等。此外,还有一些参数高效的迁移学习方法,如模型压缩、知识蒸馏等。
沙发等你来抢
去评论
评论
沙发等你来抢