- 简介目前,检测移动红外微小目标是一个具有挑战性和普遍性的研究课题。现有的最先进方法主要基于ConvLSTM,从相邻帧聚合信息以促进当前帧的检测。然而,这些方法仅在训练阶段隐式利用运动信息,未能明确探索运动补偿,在包含大运动的视频序列中表现不佳。本文提出了一种基于可变形卷积的可变形特征对齐和细化(DFAR)方法,以在训练和推理阶段明确利用运动上下文。具体而言,我们开发了一个基于设计的扩张卷积注意融合(DCAF)块的时间可变形对齐(TDA)模块,以在特征级别明确对齐相邻帧和当前帧。然后,特征细化模块通过提出的注意力引导的可变形融合(AGDF)块自适应地融合对齐特征,并进一步聚合有用的时空信息。此外,为了改善相邻帧与当前帧的对齐,我们通过引入新的运动补偿损失扩展了传统的损失函数。广泛的实验结果表明,所提出的DFAR方法在包括DAUB和IRDST在内的两个基准数据集上实现了最先进的性能。
-
- 图表
- 解决问题该论文旨在解决红外小目标检测中大运动情况下性能不佳的问题,提出了一种基于可变形卷积的Deformable Feature Alignment and Refinement (DFAR)方法,旨在显式地利用运动上下文来提高检测性能。
- 关键思路DFAR方法通过Temporal Deformable Alignment (TDA)模块和Attention-guided Deformable Fusion (AGDF)模块显式地利用运动上下文,以提高检测性能。此外,引入新的运动补偿损失函数来进一步提高对当前帧的对齐。
- 其它亮点论文在DAUB和IRDST两个基准数据集上进行了广泛的实验,证明了DFAR方法在红外小目标检测中的卓越表现。此外,论文还提供了开源代码。
- 当前领域中的主流方法主要基于ConvLSTM来聚合相邻帧的信息,而DFAR方法则显式地利用了运动上下文,与当前研究状态有所不同。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流