AGLLDiff: Guiding Diffusion Models Towards Unsupervised Training-free Real-world Low-light Image Enhancement

2024年07月20日
  • 简介
    现有的低光图像增强(LIE)方法在解决合成失真方面取得了显著的成功,但在实际应用中往往表现不佳。这些限制源于现实世界LIE中存在的两个固有挑战:1)收集失真/清晰图像对通常是不切实际的,有时甚至不可用;2)准确建模复杂的退化过程是一个非常棘手的问题。为了克服这些限制,我们提出了属性引导扩散框架(AGLLDiff),这是一种无需训练的有效现实世界LIE方法。AGLLDiff并没有具体定义退化过程,而是转变了范式,模拟所需的属性,例如正常光照下图像的曝光、结构和颜色。这些属性是容易获取的,并且不对退化过程做任何假设,这指导了扩散采样过程,使其进入一个可靠的高质量解空间。广泛的实验表明,我们的方法在失真度量和感知度量方面优于当前领先的无监督LIE方法,并且即使在复杂的野外退化情况下也表现良好。
  • 作者讲解
  • 图表
  • 解决问题
    解决问题:本文试图解决实际应用中低光图像增强方法的两个困难问题:缺乏失真/清晰图像对的收集,以及准确建模复杂的退化过程。
  • 关键思路
    关键思路:本文提出了一种名为AGLLDiff的方法,它不需要训练,而是通过对期望的图像属性进行建模,引导扩散采样过程,以获得可靠的高质量解决方案空间。
  • 其它亮点
    其他亮点:本文的方法在多个基准测试中优于当前领先的无监督低光图像增强方法,包括失真度和感知度指标。该方法即使在复杂的野外退化情况下也表现良好。本文还提供了详细的实验设计和数据集信息,并且开源了代码。
  • 相关研究
    相关研究:最近的相关研究包括基于深度学习的低光图像增强方法、基于传统图像处理技术的方法以及基于物理模型的方法。其中的一些研究包括:《Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution》、《RetinexNet: Deep Retinex Decomposition for Low-Light Enhancement》、《A Multi-Scale Retinex for Bridging the Gap Between Color Images and Depth Maps》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问