LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation

2024年04月04日
  • 简介
    深度学习技术的出现推进了图像分割任务的发展,特别是医学图像。过去十年中,许多神经网络模型被引入,使得自动分割的准确度接近于手动分割。然而,像基于Transformer的架构这样的尖端模型依赖于大规模注释的训练数据,并且通常在编码器、解码器和跳跃连接中设计具有密集连续的层,导致参数数量庞大。此外,为了获得更好的性能,它们通常需要在更大的数据上进行预训练,因此需要大量的内存空间和资源费用。在本研究中,我们提出了一种新的轻量级但高效的模型,即LiteNeXt,基于卷积和混合模块,采用简化的解码器,用于医学图像分割。该模型使用少量参数(0.71M)和每秒十亿次浮点运算(0.42)从头开始训练。为了处理特别是医学图像区域中的边界模糊以及物体遮挡或杂乱,我们提出了边际权重损失,可以有效地确定物体和背景之间的边际边界。此外,我们提出了自嵌入表示并行技术,可以以自学习的方式增加数据。在包括Data Science Bowls、GlaS、ISIC2018、PH2和Sunnybrook数据在内的公共数据集上进行的实验显示,与其他最先进的基于CNN和Transformer的架构相比,我们的模型表现出有希望的结果。我们的代码将在以下网址上发布:https://github.com/tranngocduvnvp/LiteNeXt。
  • 图表
  • 解决问题
    论文旨在提出一种轻量级但高效的医学图像分割模型,以解决当前深度学习技术需要大量标注数据和高计算资源的问题。
  • 关键思路
    论文提出了一种名为LiteNeXt的模型,基于卷积和混合模块,采用简化的解码器,从头开始训练,参数量少(0.71M),计算速度快(0.42 GFLOPS),并引入边界损失和自嵌入表示并行技术来提高模型性能。
  • 其它亮点
    论文在公共数据集上进行了实验,包括Data Science Bowls、GlaS、ISIC2018、PH2和Sunnybrook数据集,与其他基于CNN和Transformer的模型相比,表现出很好的性能。论文的代码将在GitHub上公开。
  • 相关研究
    最近的相关研究包括基于深度学习的医学图像分割模型,如U-Net、SegNet、DeepLab等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论