Pre-Trained Image Processing Transformer 论文链接:https://arxiv.org/abs/2012.00364 本文提出图像处理Transformer(IPT),在超分辨率、去噪、去雨任务上表现SOTA!性能优于IGNN、RDN和RCDNet等网络,作者单位:北大, 华为诺亚, 悉尼大学等
随着现代硬件的计算能力快速增强,在大规模数据集上学习的预训练深度学习模型(例如BERT,GPT-3)已证明它们比传统方法更有效。取得重大进展的主要原因是transformer及其变体结构的表示能力。在本文中,我们研究了low-level计算机视觉任务(例如,去噪,超分辨率和去雨),并开发了一种新的预训练模型,即图像处理Transformer(IPT)。为了最大程度地挖掘transformer的功能,我们目前使用众所周知的ImageNet基准测试来生成大量损坏的图像对。在这些图像上使用多头和多尾对IPT模型进行训练。另外,引入了对比学习以很好地适应不同的图像处理任务。因此,预训练模型可以在微调后有效地用于所需任务。仅使用一种预先训练的模型,IPT在各种low-level基准测试中都优于当前的最新方法。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢