论文标题:Towards Unsupervised Deep Image Enhancement with Generative Adversarial Network 论文链接:https://arxiv.org/abs/2012.15020 代码链接:https://github.com/eezkni/UEGAN 作者单位:香港城市大学, 美团 本文提出了一种无监督的图像增强生成对抗网络(UEGAN),其嵌入了调制和注意力机制以捕获更丰富的全局和局部特征,表现SOTA!优于DPE、EnlightenGAN等网络,代码即将开源!

对于公众而言,提高图像的美学质量是充满挑战和渴望的。为了解决这个问题,大多数现有算法都是基于监督学习方法来学习用于配对数据的自动图像增强器,该图像增强器由低质量的图像和相应的专家修饰版本组成。但是,专家修饰的照片的风格和特征可能无法满足一般用户的需求或偏好。在本文中,我们提出了一种无监督的图像增强生成对抗网络(UEGAN),该网络以无监督的方式从一组具有所需特征的图像中学习相应的图像到图像的映射,而不是学习大量的成对图像。所提出的模型基于单个深度GAN,它嵌入了调制和注意力机制以捕获更丰富的全局和局部特征。基于提出的模型,我们引入了两种损失来处理无监督图像增强:(1)保真度损失,其定义为预训练VGG网络的特征域中的L2正则化,以确保增强图像之间的内容(2)质量损失,它被定义为相对hinge adversarial loss,以赋予输入图像所需的特性。定量和定性结果均表明,该模型有效地提高了图像的美学质量。

内容中包含的图片若涉及版权问题,请及时与我们联系删除