标签.jpg

 

Machine Intelligence Research

1×1卷积可以用来干什么?本文设计了一种完全基于1×1卷积的极简深度神经网络,实现了轻量图像超分辨率重建。相关成果已发表于《机器智能研究(英文)》2024年第6期中。

代码请见: https://github.com/Aitical/SCNet

 

 

题目.png

图片来自Springer

 

全文下载:

Fully 1 × 1 Convolutional Network for Lightweight Image Super-resolution

Gang Wu, Junjun Jiang, Kui Jiang, Xianming Liu

https://link.springer.com/article/10.1007/s11633-024-1501-9

https://www.mi-research.net/article/doi/10.1007/s11633-024-1501-9

 

全文导读

随着深度学习技术的飞速发展,单图超分辨率(SISR)技术取得显著进展。基于卷积神经网络的SISR方法如SRCNN, 从低分辨率(LR)输入学习到高分辨率(HR)输出的映射,并取得了比传统方法更优的性能。然而,这些基于CNN的模型通常需要深层或复杂的网络结构来提升性能,这不可避免地导致了模型参数和计算成本的大量增加,使得这些模型难以部署在移动或边缘设备等资源受限环境。现有的轻量化方法设计通常关注减少模型参数数量或浮点运算(FLOPs)来实现轻量化的神经网络。然而,绝大多数基于卷积神经网络的超分辨率模型使用3×3或者更大的卷积核来提升性能。大核卷积可以提升性能,但同时也会快速增加参数数量和计算成本。相对地,1×1卷积可以极大程度的减少参数数量,但却因固定的感受野和缺失局部特征聚合而限制了其学习能力。该工作提出了全1×1卷积的轻量化图像超分辨率模型。

 

为了解决1×1卷积特征提取能力的局限性,团队引入了无参数的空间位移操作。他们将输入特征图沿着通道维度分成不同的组,并对每个组应用不同空间方向的空间位移操作。这样确保了输出特征图中的每个像素沿着通道维度都可以获得近邻特征聚合,从而弥补了相较于3×3卷积在表示能力上的差距。团队将这种通过空间位移操作实现局部特征聚合的1×1卷积称为移位卷积(Shift-Conv Layer, 简称SC Layer)。与常规3×3卷积相比,SC层在保持可比性能的同时,显著减少参数数量和计算量。

 

1 方法

image.png

图1 SCNet的总体结构。

 

图像超分辨率旨在将LR图像 转换为相应的HR图像 ,从而生成SR结果 。本文提出了一个全逐点卷积实现的轻量级图像超分辨率网络SCNet。参照现有基于卷积神经网络的一般架构设计,SCNet主要包含了:浅层特征提取、深层特征提取和HR图像重建模块三部分组成,具体实现如图1所示。

 

1.1 整体框架

给定一个低分辨率图像,首先浅层特征提取器将其映射到指定的隐层特征空间,得到特征图。接着,浅层特征图通过深层特征提取器,提取深层特征图。最后,使用高分辨图像重建模块对深层特征进行上采样,获得最终的超分辨率结果。学习的目标函数是最小化超分辨率结果与目标高分辨图像的误差。本文提出的SCNet的整体框架和训练过程如上所述,下面介绍移位卷积和移位残差单元的具体实现细节。

 

1.2 移位卷积层

image.png

图2 空间移位操作实现。

 

移位卷积包含逐点卷积和空间移位操作。通过空间移位操作沿着通道方向实现近邻特征对齐,从而实现局部特征聚合。具体的空间移位操作实现如图2所示。对输入特征图首先进行通道拆分,均匀划分为N组,N这里表示移位的近邻特征数量。为了与3×3卷积保持一致,团队默认采取八组。接着对不同的组分别沿着不同的方向移动指定步长。如图2所示,沿着不同方向移动后实现了对应位置处近邻特征的聚合。在这里,为了跟3×3卷积保持一致,采用8个方向和步长为1作为默认设置。值得注意的是,移位卷积相较于3×3卷积,不仅实现了局部特征聚合,通过控制移位的特征点位选取,还可以进一步扩展到长距特征关系提取。

 

1.3 移位残差单元

基于上述的移位卷积层,团队将标准残差结构中的3×3卷积全部替换成逐点卷积,其中嵌入空间移位操作。改进后的移位残差单元包含一个移位卷积和一个逐点卷积以及激活层,具体的实现细节见图3。基于移位残差单元,团队通过堆叠不同的移位残差块实现了不同规模的SCNet。

image.png

图3 (a)残差单元和(b)本文提出的移位残差单元。

 

2 实验

2.1 实验设置

数据集和指标。团队的模型是在DIV2K和Flickr2K上训练,训练数据共包含3450张高分辨率图像。本文验证了2倍、3倍和4倍超分模型。训练时团队将输入低分辨图像裁剪至64×64大小的块。测试时团队引入峰值信噪比(PSNR)和结构相似度(SSIM)指标作为评估指标。它们是在超分结果转换YCbCr空间的Y通道中计算的。

 

实验细节。团队堆叠不同大小的移位残差单元实现了不同规模的轻量级SCNet,其中最小的模型SCNet-T是16个64通道的移位残差块实现,基础模型SCNet-B是64个64通道的移位残差块实现,最大的SCNet-L是32个128维的移位残差块实现。 

 

image.png

图4 SCNet与其他方法的主观结果对比。

 

2.2 对比试验

主观结果。图4显示了从Urban100选择的几张图像的4倍超分辨率结果。可以看到,SCNet超分辨率结果相较于其他CNN方法有着更清晰的主观效果。同时,对于一些边缘和纹理部分,SCNet也都能更好地重建出来。

 

客观结果。表1~3提供了2倍3倍和4倍超分辨率任务的结果,可以看到提出的SCNet在不同模型容量下均可以取得更好的性能和模型容量的平衡。相较于广泛作为基准的IMDN和SRResNet,SCNet-L分别提升了0.26 dB和0.28 dB。此外,定量的客观结果中团队按照方法模型的大小进行了划分,以4倍超分辨率为例,可以看到在不同规模的方法比较中,SCNet都取得了非常好的效果。尤其是SCNet-B,仅有700K不到的参数就已经超过了现有CNN方法,除了在Set5上比LBNet低一些,但是LBNet包含了更多的参数。此外,具体的计算复杂度对比总结在表2中。可以看到,不同规模的SCNet在性能和计算复杂度上取得了更好的平衡。与小参数量的LAPAR-C相比,SCNet-T包含较多参数时却拥有更低的计算复杂度。与较大的SRResNet相比,SCNet-L拥有更少的参数量和计算复杂度,并且取得了更好的效果。这是因为逐点卷积计算量和参数量是3×3卷积的九分之一,团队扩展出更深的拟合能力更强的SCNet,尤其是SCNet-B,堆叠了64个移位残差单元,仅SRResNet三分之一的计算量就取得了更好的超分辨率结果。

 

image.png

表1 2倍超分客观指标结果。最好的结果被标记下划线,本文提出的SCNet的结果加粗

 

image.png

表2 3倍超分客观指标结果。

 

image.png

表3 4倍超分客观指标结果。

 

2.3 消融分析

为了验证提出的SCNet中每个成分的作用,团队进一步进行了一系列消融研究。

 

移位卷积。首先,分析了移位卷积中不同移动策略的影响。团队设计了5种不同的移动策略如图5所示。这里团队选取了4个点位,并且拆分成了不同方向的两组,如图5(a)和图5(b)所示。默认采用的8个点位如图5(c)所示,进一步地团队扩展了移动步长,得到了图5(d)。最后,团队将图5(c)和图5(d)中的点位进行合并,得到图5(e)来验证点位数量的影响。具体的结果展示在表4中。可以看到,不同的移位操作设置对模型最终的性能有着重大影响。当移位操作仅选取4个点位时,SCNet指标整体下降。这是因为仅选取4个点位的特征难以有效建模近邻关系。相较于默认的8点位,空洞8点位的移位设置取得了更好的效果。团队认为这主要是由于空洞移位引入了更大的感受野。这也验证了移位操作可以通过设计不同的参数先验,甚至获取长距离关系建模,相较于一般的卷积有着更好的灵活性。最后,采用16点位的SCNet的整体效果下降了,这主要是由于16点位需要将特征划分成16组,此时每组的特征数量太少难以进行有效的关系建模。

 

image.png

图5 多种移位操作的特征选取。

 

image.png

表4 移位操作的消融分析结果。

 

模型容量分析。得益于移位卷积仅需要非常少的参数量和计算量,团队可以很轻松地对SCNet进行扩展,这里主要消融SCNet的可扩展性。团队设计了不同大小的SCNet,并在4倍超分辨率任务上进行验证,客观指标展示在表5中。可以发现,仅由逐点卷积实现的SCNet有着良好的可扩展性,可以有效地扩展到不同规模的参数量。这里团队从深度和宽度(特征维度)两方面进行消融验证,总的来说,扩充深度带来的收益要比使用更大的特征维度更好。

 

image.png

表5 不同模型大小的SCNet消融分析结果。

 

结论:

本文提出了一个完全使用逐点卷积实现的轻量级图像超分辨率网络SCNet。与一般的3×3卷积相比,逐点卷积包含的参数更少,计算成本也更低,但缺失了局部特征融合这一关键特性。为了解决这个问题,团队通过空间移位操作扩展了逐点得到移位卷积,通过手动特征聚合使其具有了特征聚合的能力,而且空间移位操作是没有额外计算成本的。基于移位卷积,团队替换标准残差结构中的3×3卷积并提出了移位残差单元。通过堆叠不同规模的移位残差单元实现了不同模型大小的SCNet。最后在多个公开测试数据集上提出的SCNet取得了最好的结果。此外,团队也通过详细的消融分析,验证了本文提出的不同模块的有效性。

 

 

· 本文作者 ·

 

作者图片.png

 

 

全文下载:

Fully 1 × 1 Convolutional Network for Lightweight Image Super-resolution

Gang Wu, Junjun Jiang, Kui Jiang, Xianming Liu

https://link.springer.com/article/10.1007/s11633-024-1501-9

https://www.mi-research.net/article/doi/10.1007/s11633-024-1501-9

BibTex:

@Article{MIR-2023-12-280,

author={Gang Wu and Junjun Jiang and Kui Jiang and Xianming Liu}

journal={Machine Intelligence Research},

title={Fully 1 × 1 Convolutional Network for Lightweight Image Super-resolution},

year={2024},

volume={21},

issue={6},  

pages={1062-1076},

doi={10.1007/s11633-024-1501-9}}

 

纸刊免费寄送
Machine Intelligence Research

MIR为所有读者提供免费寄送纸刊服务,如您对本篇文章感兴趣,请点击下方链接填写收件地址,编辑部将尽快为您免费寄送纸版全文!

说明:如遇特殊原因无法寄达的,将推迟邮寄时间,咨询电话010-82544737

收件信息登记:

https://www.wjx.cn‍/vm/eIyIAAI.aspx#  

 

 

 

关于Machine Intelligence Research

Machine Intelligence Research(简称MIR,原刊名International Journal of Automation and Computing)由中国科学院自动化研究所主办,于2022年正式出版。MIR立足国内、面向全球,着眼于服务国家战略需求,刊发机器智能领域最新原创研究性论文、综述、评论等,全面报道国际机器智能领域的基础理论和前沿创新研究成果,促进国际学术交流与学科发展,服务国家人工智能科技进步。期刊入选"中国科技期刊卓越行动计划",已被ESCI、EI、Scopus、中国科技核心期刊、CSCD等20余家国际数据库收录,入选图像图形领域期刊分级目录-T2级知名期刊。2022年首个CiteScore分值在计算机科学、工程、数学三大领域的八个子方向排名均跻身Q1区,最佳排名挺进Top 4%,2023年CiteScore分值继续跻身Q1区。2024年获得首个影响因子(IF) 6.4,位列人工智能及自动化&控制系统两个领域JCR Q1区。

 

往期目录
2024年第6期 | 图神经网络,卷积神经网络,生物识别技术...
2024年第5期 | 大语言模型,无人系统,统一分类与拒识...
2024年第4期 | 特约专题: 多模态表征学习
2024年第3期 | 分布式深度强化学习,知识图谱,推荐系统,3D视觉,联邦学习...
2024年第2期 | 大语言模型、零信任架构、常识知识推理、肿瘤自动检测和定位...
2024年第1期 | 特约专题: AI for Art
2023年第6期 | 影像组学、机器学习、图像盲去噪、深度估计...
2023年第5期 | 生成式人工智能系统、智能网联汽车、毫秒级人脸检测器、个性化联邦学习框架... (机器智能研究MIR)
2023年第4期 | 大规模多模态预训练模型、机器翻译、联邦学习......
2023年第3期 | 人机对抗智能、边缘智能、掩码图像重建、强化学习... 
2023年第2期 · 特约专题 | 大规模预训练: 数据、模型和微调
2023年第1期 | 类脑智能机器人、联邦学习、视觉-语言预训练、伪装目标检测... 
2022年第6期 | 因果推理、视觉表征学习、视频息肉分割...
2022年第5期 | 重磅专题:类脑机器学习
2022年第4期 | 来自苏黎世联邦理工学院Luc Van Gool教授团队、清华大学戴琼海院士团队等
2022年第3期 | 聚焦自然语言处理、机器学习等领域;来自复旦大学、中科院自动化所等团队
2022年第2期 | 聚焦知识挖掘、5G、强化学习等领域;来自联想研究院、中科院自动化所等团队
主编谭铁牛院士寄语, MIR第一期正式出版!

 

 

好文推荐
下载量TOP好文 | 人工智能领域高下载文章集锦(2023-2024年)
自动化所刘成林团队 | 统一分类与拒识: 一种一对多框架
上海交大张拳石团队 | 综述: 基于博弈交互理论的神经网络可解释性研究
专题好文 | 再思考人群计数中的全局上下文
专题好文 | Luc Van Gool团队: 基于分层注意力的视觉Transformer
浙江大学孔祥维团队 | 综述: 迈向真正以人为本的XAI
澳大利亚国立大学Nick Barnes团队 | 对息肉分割的再思考: 从分布外视角展开
前沿观点 | Segment Anything并非一直完美: SAM模型在不同真实场景中的应用调查
精选好文 | 推荐系统的波纹知识图谱卷积网络
复旦邱锡鹏团队 | MOSS: 一个开源的对话式大语言模型
自动化所黄凯奇团队 | 分布式深度强化学习:综述与多玩家多智能体学习工具箱
约翰霍普金斯大学Alan Yuille团队 | 从时序和高维数据中定位肿瘤的弱标注方法
专题综述 | 大语言模型中的知识生命周期
精选综述 | 零信任架构的自动化和编排: 潜在解决方案与挑战
欧洲科学院院士蒋田仔团队 | 脑成像数据的多模态融合: 方法与应用
金耀初团队&郑锋团队 | 综述: 深度工业图像异常检测
专题好文 | 创新视听内容的联合创作: 计算机艺术面临的新挑战
下载量TOP好文 | 人工智能领域高下载文章集锦 (2022-2023年)
引用量TOP好文 | 人工智能领域高引用文章集锦 (2022-2023年)
综述 | 清华张学工教授: 肺癌影像组学中的机器学习
哈工大江俊君团队 | DepthFormer: 利用长程关联和局部信息进行精确的单目深度估计
Luc Van Gool团队 | 通过Swin-Conv-UNet和数据合成实现实用图像盲去噪
贺威团队&王耀南院士团队 | 基于动态运动基元的机器人技能学习
乔红院士团队 | 类脑智能机器人:理论分析与系统应用 (机器智能研究MIR)
南科大于仕琪团队 | YuNet:一个速度为毫秒级的人脸检测器
上海交大严骏驰团队 | 综述: 求解布尔可满足性问题(SAT)的机器学习方法
西电公茂果团队 | 综述: 多模态数据的联邦学习
高文院士团队 | 综述: 大规模多模态预训练模型
前沿观点 | 谷歌BARD的视觉理解能力如何?对开放挑战的实证研究
港中文黄锦辉团队 | 综述: 任务型对话对话策略学习的强化学习方法
南航张道强教授团队 | 综述:用于脑影像基因组学的机器学习方法
ETHZ团队 | 一种基于深度梯度学习的高效伪装目标检测方法 (机器智能研究MIR)
Luc Van Gool团队 | 深度学习视角下的视频息肉分割
专题综述 | 高效的视觉识别: 最新进展及类脑方法综述
北大黄铁军团队 | 专题综述:视觉信息的神经解码
专题综述 | 迈向脑启发计算机视觉的新范式
专题好文 | 新型类脑去噪内源生成模型: 解决复杂噪音下的手写数字识别问题
戴琼海院士团队 | 用以图像去遮挡的基于事件增强的多模态融合混合网络
ETH Zurich重磅综述 | 人脸-素描合成:一个新的挑战
华南理工詹志辉团队 | 综述: 面向昂贵优化的进化计算
东南大学张敏灵团队 | 基于选择性特征增广的多维分类方法
联想CTO芮勇团队 | 知识挖掘:跨领域的综述
复旦邱锡鹏团队 | 综述:自然语言处理中的范式转换

 

 

MIR资讯
挺进Q1区前10名!MIR首个影响因子发布
征稿启事 | AIART 2025 Call for Papers
MIR 2024年度优秀编委名单
快讯 | MIR编委会2024年度工作会议在杭州顺利召开
喜报!MIR入选中国科技期刊卓越行动计划二期项目
专题征稿 | 用于视频理解的多模态学习、时序建模及基础模型
专题征稿 | Special Issue on Embodied Intelligence
专题征稿 | Special Issue on Transformers for Medical Image Analysis
特别提醒!请认准MIR官方渠道,谨防受骗
2024年 AI 领域国际学术会议参考列表
MIR 优秀编委 & 优秀审稿人 & 高被引论文 (2023年度)
致谢审稿人 | Machine Intelligence Research
年终喜报!MIR科技期刊世界影响力指数跻身Q1区 (含100份龙年礼包)
最新 | 2023研究前沿及热点解读 (附完整PDF)
前进20名!MIR再度跻身国际影响力TOP期刊榜单
喜报 | MIR入选图像图形领域 T2级 “知名期刊”!
双喜!MIR入选”2022中国科技核心期刊”,并被DBLP收录 | 机器智能研究MIR
报喜!MIR入选2022年国际影响力TOP期刊榜单
喜报 | MIR被 ESCI 收录!
喜报 | MIR 被 EI 与 Scopus 数据库收录

 

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除