Rethinking Learned Image Compression: Context is All You Need

2024年07月16日
  • 简介
    由于LIC与传统方法相比近期取得了快速进展,因此本文试图从主观度量的角度探讨“学习图像压缩(LIC)的边界在哪里?”的问题。因此,本文将上述问题分为两个子问题:1)PSNR的速率失真性能的边界在哪里?2)如何进一步提高压缩增益并实现边界?因此,本文分析了编码器、解码器和上下文模型三个LIC组件的缩放参数的有效性。然后,我们得出结论,LIC的缩放是对LIC内的上下文模型和解码器进行缩放。广泛的实验证明,过度拟合实际上可以作为一种有效的上下文。通过优化上下文,本文进一步提高了PSNR,并实现了最先进的性能,与VVC相比,BD-RATE的性能增益达到了14.39%。
  • 图表
  • 解决问题
    本篇论文旨在探讨学习图像压缩(LIC)的界限在哪里,以主观指标为基础。具体地,论文将问题分为两个子问题:1)PSNR的速率失真性能的界限在哪里?2)如何进一步提高压缩增益并达到界限?
  • 关键思路
    论文分析了编码器、解码器和上下文模型三个组件的缩放参数的有效性,并得出结论:LIC的缩放是对LIC内的上下文模型和解码器进行缩放。通过优化上下文,论文进一步提高了PSNR,并实现了14.39%的BD-RATE性能增益,达到了最先进的性能水平。
  • 其它亮点
    本论文的亮点在于对LIC的三个组件进行了详细的分析,并提出了一种新的优化方法。实验结果表明,过拟合实际上可以作为一种有效的上下文。论文还使用了广泛的数据集进行实验,并开源了代码。
  • 相关研究
    在这个领域中,最近的相关研究包括:1)“End-to-End Optimized Image Compression via Learning Pixel Clustering and Blockwise Quantization with a Laplacian Prior” 2)“Variational Image Compression with a Scale Hyperprior” 3)“Joint Autoregressive and Hierarchical Priors for Learned Image Compression”等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论