- 简介最近,在超分辨率(SR)领域中,由于可以处理长距离依赖关系并根据实例自适应调整权重,变形金刚网络(transformers)比卷积神经网络(CNNs)在更少的浮点运算和参数数量方面表现更好。在本文中,我们证明了CNNs,虽然在当前的SR领域中受到的关注较少,但在直接效率指标方面超越了Transformers。通过将Transformers的优点融入CNNs中,我们旨在实现计算效率和性能的提高。然而,在主要处理大图像的SR领域中使用大内核会导致大量的计算开销。为了克服这个问题,我们提出了新颖的方法来使用大内核,可以将延迟降低86%,并利用元素注意力模块来模拟实例相关的权重。因此,我们引入了部分大内核CNNs用于高效超分辨率(PLKSR),在4个$\times$4的数据集上实现了最先进的性能,在延迟和最大GPU内存占用方面与SRFormer-light相比分别降低了68.1%和80.2%。
- 图表
- 解决问题论文旨在通过将Transformer的优势融入CNN中,实现计算效率和性能的双重提升,解决超分辨率(SR)领域中大核处理大图像时的计算负担问题。
- 关键思路论文提出了一种新型的CNN架构——Partial Large Kernel CNNs for Efficient Super-Resolution(PLKSR),通过采用新颖的大核处理方式和Element-wise Attention模块来模拟实例相关权重,实现了对四个数据集在$ imes$4尺度上的超分辨率任务的最优表现。
- 其它亮点论文采用了新颖的大核处理方式,相较于传统大核处理方式,可以将延迟降低86%;同时,通过使用Element-wise Attention模块来模拟实例相关权重,提高了模型的性能。实验结果表明,PLKSR在计算效率和性能方面均优于SRFormer-light,同时还开源了代码。
- 最近的相关研究包括:SRFormer、TransGAN等。
沙发等你来抢
去评论
评论
沙发等你来抢