Partial Large Kernel CNNs for Efficient Super-Resolution

2024年04月18日
  • 简介
    最近,在超分辨率(SR)领域中,由于可以处理长距离依赖关系并根据实例自适应调整权重,变形金刚网络(transformers)比卷积神经网络(CNNs)在更少的浮点运算和参数数量方面表现更好。在本文中,我们证明了CNNs,虽然在当前的SR领域中受到的关注较少,但在直接效率指标方面超越了Transformers。通过将Transformers的优点融入CNNs中,我们旨在实现计算效率和性能的提高。然而,在主要处理大图像的SR领域中使用大内核会导致大量的计算开销。为了克服这个问题,我们提出了新颖的方法来使用大内核,可以将延迟降低86%,并利用元素注意力模块来模拟实例相关的权重。因此,我们引入了部分大内核CNNs用于高效超分辨率(PLKSR),在4个$\times$4的数据集上实现了最先进的性能,在延迟和最大GPU内存占用方面与SRFormer-light相比分别降低了68.1%和80.2%。
  • 图表
  • 解决问题
    论文旨在通过将Transformer的优势融入CNN中,实现计算效率和性能的双重提升,解决超分辨率(SR)领域中大核处理大图像时的计算负担问题。
  • 关键思路
    论文提出了一种新型的CNN架构——Partial Large Kernel CNNs for Efficient Super-Resolution(PLKSR),通过采用新颖的大核处理方式和Element-wise Attention模块来模拟实例相关权重,实现了对四个数据集在$ imes$4尺度上的超分辨率任务的最优表现。
  • 其它亮点
    论文采用了新颖的大核处理方式,相较于传统大核处理方式,可以将延迟降低86%;同时,通过使用Element-wise Attention模块来模拟实例相关权重,提高了模型的性能。实验结果表明,PLKSR在计算效率和性能方面均优于SRFormer-light,同时还开源了代码。
  • 相关研究
    最近的相关研究包括:SRFormer、TransGAN等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论