论文标题:Multi-Scale Aligned Distillation for Low-Resolution Detection 论文链接:https://jiaya.me/papers/msaligndistill_cvpr21.pdf 代码链接:https://github.com/Jia-Research-Lab/MSAD 作者单位:香港中文大学(贾佳亚团队) & Adobe & 思谋科技

本文提出的框架可以提高低分辨率实例级检测任务的性能,其中提出了对齐多尺度训练方法和交叉特征融合方法,涨点显著!代码刚刚开源!

在实例级检测任务(例如,目标检测)中,降低输入分辨率是提高运行时效率的简单选择。但是,传统上,此选项会严重损害检测性能。本文着重于通过提取高分辨率或多分辨率模型中的知识来提高低分辨率模型的性能。我们首先确定将知识蒸馏(KD)应用于以不同输入分辨率起作用的师生网络的挑战。为了解决这个问题,我们探索了通过移动特征金字塔位置在不同输入分辨率的模型之间空间对齐特征图的想法,并引入对齐的多尺度训练来训练可以将其知识蒸馏为低分辨率学生的多尺度教师。此外,我们提出交叉特征级别融合以动态融合教师的多分辨率特征,以更好地指导学生。在几个实例级检测任务和数据集上,通过我们的方法训练的低分辨率模型与通过常规多尺度训练的高分辨率模型具有竞争性,而后者的低分辨率模型在性能上要比后者的低分辨率模型高出2.1%至3.6%的mAP。

内容中包含的图片若涉及版权问题,请及时与我们联系删除