Low-Light Video Enhancement via Spatial-Temporal Consistent Illumination and Reflection Decomposition

2024年05月24日
  • 简介
    本文介绍了一种创新的基于视频Retinex分解策略的低光视频增强方法,旨在恢复因严重不可见性和噪声而受损的动态和静态场景。其中一个关键方面是专门为时间-空间照明和外观增强版本制定一致性约束,这是现有方法忽视的一个维度。我们利用动态跨帧对应来实现内在外观,通过对照明场施加场景级连续性约束,从而产生令人满意的一致分解结果。为了进一步确保一致的分解,我们引入了一种双结构增强网络,其中包括一种新颖的跨帧交互机制。该机制可以与编码器-解码器单帧网络无缝集成,产生最小的额外参数成本。通过同时监督不同帧,该网络鼓励它们展现匹配的分解特征,从而实现所需的时间传播。我们在广泛认可的LLVE基准测试中进行了大量实验,涵盖了各种场景。我们的框架始终优于现有方法,建立了新的最先进(SOTA)性能。
  • 图表
  • 解决问题
    本论文旨在解决低光视频增强中存在的动态和静态场景严重不可见和噪声问题,并提出一种新的视频Retinex分解策略。
  • 关键思路
    该论文提出了一种创新的视频Retinex分解策略,通过动态交叉帧对内在外观进行处理,并对照明场施加场级连续性约束,以产生令人满意的一致分解结果。
  • 其它亮点
    该论文的亮点在于使用了一个无需明确监督的视频Retinex分解策略,并且引入了一个双结构增强网络,具有新颖的交叉帧交互机制。实验结果表明,该方法在广泛认可的低光视频增强基准测试中表现出色,是目前的最优方法。
  • 相关研究
    在这个领域中,最近的相关研究包括:《Deep Retinex Decomposition for Low-Light Enhancement》、《Low-Light Image and Video Enhancement with Generative Adversarial Network》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论