Deep Generative Modeling Reshapes Compression and Transmission: From Efficiency to Resiliency

2024年06月10日
  • 简介
    信息论和机器学习密不可分,甚至被称为“同一枚硬币的两个面”。其中一个特别优雅的联系是概率生成建模与数据压缩或传输之间的本质等价性。在本文中,我们揭示了深度生成模型的双重功能,既可以重塑数据压缩以提高效率,又可以进行传输错误的遮盖以提高鲁棒性。我们展示了强大生成模型的上下文预测能力如何能够成为强大的压缩器和估计器。在这个意义上,我们主张通过端到端通信的视角来看待深度生成建模问题,并评估基础生成模型的压缩和错误恢复能力。我们展示了许多大型生成模型的核心是强大的预测器,能够捕捉语义潜变量之间的复杂关系,而通信视角提供了关于语义特征标记、上下文学习和深度生成模型使用的新见解。总之,我们的文章强调了生成AI与源码和信道编码技术的基本联系,并激励研究人员在这个新兴主题上进一步探索。
  • 作者讲解
  • 图表
  • 解决问题
    探讨深度生成模型在数据压缩和传输错误修复中的双重功能性
  • 关键思路
    深度生成模型具有上下文预测能力,可以作为强大的压缩器和估计器,同时用于传输错误修复
  • 其它亮点
    论文通过视角转换,将深度生成模型问题视为端到端通信问题,探讨了语义特征标记化、上下文学习等问题,实验结果表明深度生成模型在数据压缩和传输错误修复方面具有较强的能力
  • 相关研究
    近期相关研究包括《Generative Models for Effective ML on Private, Decentralized Datasets》、《Generative Adversarial Networks for Extreme Learned Image Compression》等
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问