- 简介受注意力机制日益流行的影响,我们观察到像Squeeze-and-Excite(SE)和Convolutional Block Attention Module(CBAM)这样的流行的卷积( conv.)注意力模型依赖于昂贵的多层感知(MLP)层。这些MLP层显著增加了计算复杂度,使得这些模型在3D图像环境中的适用性较低,因为数据维度和计算成本更高。在3D医学成像中,如3D肺部CT扫描,高效处理非常重要,因为数据量很大。传统的2D注意力推广到3D会增加计算负荷,需要更有效的3D任务的注意力机制。我们研究了在3D环境中结合全卷积(conv.)注意力的可能性。我们提出了两个3D全卷积注意力块,并展示了它们在3D环境中的有效性。使用肺部CT扫描进行3D肺结节检测,我们提出了AttentNet,一个自动肺结节检测框架,将检测作为两个阶段的集合,候选提案和假阳性(FP)减少。我们将所提出的3D注意力块与通用于3D模块的流行2D卷积注意力方法和自注意单元进行比较。对于FP减少阶段,我们还使用联合分析方法来聚合来自不同上下文层次的空间信息。我们使用LUNA-16肺结节检测数据集来展示所提出的全卷积注意力块相对于基线流行肺结节检测方法在不使用注意力时的优势。我们的工作并不旨在在肺结节检测任务中实现最先进的结果,而是展示在3D环境中结合全卷积注意力的好处。
- 图表
- 解决问题论文旨在解决3D图像处理中注意力机制的计算复杂度问题,提出了两种全卷积注意力块,并将其应用于3D肺结节检测中。
- 关键思路论文提出了两种全卷积注意力块,避免了传统的多层感知器层带来的计算复杂度问题,并在3D肺结节检测任务中展示了其有效性。
- 其它亮点论文使用LUNA-16数据集进行实验,将提出的全卷积注意力块与其他2D和3D注意力机制进行比较。在肺结节检测中,提出的注意力机制明显优于没有使用注意力机制的基线方法。论文还采用联合分析方法对空间信息进行聚合。
- 近期的相关研究包括Squeeze-and-Excite和CBAM等2D卷积注意力模型,以及自注意力单元。
沙发等你来抢
去评论
评论
沙发等你来抢