- 简介近年来,随着文本到图像(T2I)模型的快速发展,它们的生成结果变得不尽如人意,这已经成为一个挑战。然而,统一地优化不同质量的人工智能生成图像(AIGIs)不仅限制了低质量AIGIs的优化能力,而且对高质量AIGIs带来了负面影响。为了解决这个问题,提出了一种名为Q-Refine的质量奖励优化器。基于人类视觉系统(HVS)的偏好,Q-Refine首次使用图像质量评估(IQA)度量来指导优化过程,并通过三个自适应管道修改不同质量的图像。实验表明,对于主流T2I模型,Q-Refine可以对不同质量的AIGIs进行有效的优化。它可以是一个通用的优化器,从保真度和美学质量两个方面优化AIGIs,从而扩大T2I生成模型的应用。
- 图表
- 解决问题如何优化不同质量的AI生成图像,避免对高质量图像的负面影响?
- 关键思路提出了一种基于人类视觉系统偏好和图像质量评估指标的图像优化方法Q-Refine,通过三个自适应管道对不同质量的AI生成图像进行优化。
- 其它亮点Q-Refine能够有效优化不同质量的AI生成图像,扩展了T2I生成模型的应用,实验结果表明其优化效果显著。
- 最近的相关研究包括:Generative Adversarial Networks (GANs)、Variational Autoencoders (VAEs)、PixelCNN等。
沙发等你来抢
去评论
评论
沙发等你来抢