本文的背景是超大 Kernel 的卷积神经网络的出现,大核卷积的思路来自 ViT 模型建模全局信息的性质。其中代表性的工作就是 RepLKNet,将卷积核的大小增加到了 31×31,同时获得了和 Swin Transformer 相当的分类性能和更好的下游任务性能。本文作者探索了训练大于 31×31 的极端卷积的可能性,本文发现持续地增加卷积核会带来性能饱和,所以本文意在探索是否可以通过策略性地扩大卷积来消除性能差距。经过不断探索,本文作者从稀疏性的角度提出了一个应用超大 Kernel 的方法,它可以平滑地将 Kernel 扩展到 61×61,并具有更好的性能。因此作者将模型命名为稀疏大 Kernel 网络 (SLaK),一种配备 51×51 卷积核的纯 CNN 架构。
论文链接:https://arxiv.org/pdf/2207.03620.pdf
图1:动态稀疏化技术
ImageNet 实验结果:
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢