论文链接:https://arxiv.org/pdf/2206.07867.pdf
虽然信息论最初是为通信工程而发展的,但它包含了数学工具,在科学和工程中有许多应用。这些工具可以用来描述存在噪声时数据压缩和传输的基本限制。在这里,我们提出了一个对信息论的实用的指南。我们的综述只假设你熟悉基本概率论。
在20世纪40年代,Claude Shannon[1]证明了信息的精确数学定义直接来自于概率公理。从那时起,信息理论通过定义数据压缩的极限和在嘈杂的网络中可靠地传输数据,成为我们今天生活的数字世界的基础。此外,它提供的数学工具在不同的领域,如统计、机器学习、密码学、量子计算、生物学和许多其他领域都有大量的应用。在这里,我们介绍信息论的基础,重点是直觉。这是对关键思想的一个最低限度的介绍。在优秀的教科书[2,3]以及Shannon的原始配方[1]中可以找到更全面的处理方法。
在信息论的语境之外,我们大多数人对“信息”是什么已经有了一个模糊的直观概念,它通常是接近于“对未知事物获得的知识”的东西。信息论的主要进步之一是将这种直觉形式化,变成数学上精确的东西。香农自己曾经说过:“信息可以被当作一个物理量,比如质量或能量。”香农通过用概率来定义信息,从而使信息的概念在数学上具体化。如果发送者向接收者发送某物的信息,那么该信息所描述的是不可预测的事情。换句话说,从接收者的角度来看,这是随机的。信息论表明,信息的随机性(其特征是潜在信息的概率分布)实际上是弄清楚如何传输信息的唯一重要因素。消息的实际内容无关紧要。
在信息理论中有两个关键问题将在接下来的章节中出现。第一个是源编码,它涉及数据压缩:给定一个随机事件源,平均而言,我们在如何简洁地记录随机序列的结果方面有什么限制?这可以进一步细分为两种情况,一种是原始序列可以在解压后完美重构(无损压缩),另一种是可以容忍原始序列的某些失真以实现更小的数据大小(有损压缩)。第二个问题是与数据传输有关的信道编码:给定一个随机事件的来源,以及一个不完善的信息传输系统(一个有噪声的信道),我们如何对这样的事件序列进行编码,使它们对信道引入的错误具有鲁棒性?再次,我们可以细分为完美数据传输和带错误的数据传输。
目录内容:
-
信息,不确定性,熵和互信息
-
什么是信息
-
熵与数据压缩
-
冗余
-
数据压缩极限
-
互信息
-
条件熵
-
熵和互信息之间的关系
-
随机过程的熵率
-
概率密度和微分熵
-
率失真理论
-
通道
-
通道编码
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢