信源编码定理

来自testwiki
跳转到导航 跳转到搜索

Template:AboutTemplate:NoteTA信息论中,香农的信源编码定理(或无噪声编码定理)确立了数据压缩的限度,以及香农熵的操作意义。

信源编码定理表明(在极限情况下,随着独立同分布随机变量数据流的长度趋于无穷)不可能把数据压缩得码率(每个符号的比特的平均数)比信源的香农熵还小,又不丢失信息。但是有可能使码率任意接近香农熵,且损失的概率极小。

码符号的信源编码定理把码字的最小可能期望长度看作输入字(看作随机变量)的和目标编码表的大小的一个函数,给出了此函数的上界和下界。

陈述

信源编码是从信息源的符号(序列)到码符号集(通常是bit)的映射,使得信源符号可以从二进制位元(无损信源编码)或有一些失真(有损信源编码)中准确恢复。这是在数据压缩的概念。

信源编码定理

在信息论中,信源编码定理[1]非正式地陈述[2][3]为:

Template:Mvar均为 Template:Math独立同分布的随机变量Template:Math 时,可以很小的信息损失风险压缩成多于 Template:Math bit;但相反地,若压缩到少于 Template:Math bit,则信息几乎一定会丢失。

码符号的信源编码定理

Template:Math 表示两个有限编码表,并令 Template:MathTemplate:Math (分别)表示来自那些编码表的所有有限字的集合

Template:Mvar 为从 Template:Math 取值的随机变量,令 Template:Math 为从 Template:MathTemplate:Math 的唯一可译码,其中 Template:Math。令 Template:Mvar 表示字长 Template:Math 给出的随机变量。

如果 Template:Math 是对 Template:Mvar 拥有最小期望字长的最佳码,那么(Shannon 1948):

H(X)log2a𝔼S<H(X)log2a+1

证明:码符号的信源编码定理

对于 Template:MathTemplate:Math 表示每个可能的 Template:Math 的字长。定义 qi=asi/C,其中 Template:Mvar 会使得 Template:Math。于是

H(X)=i=1npilog2pii=1npilog2qi=i=1npilog2asi+i=1npilog2C=i=1npilog2asi+log2Ci=1nsipilog2a𝔼Slog2a

其中第二行由吉布斯不等式推出,而第五行由克拉夫特不等式推出:

C=i=1nasi1

因此 Template:Math.

对第二个不等式我们可以令

si=logapi

于是

logapisi<logapi+1

因此

asipi

并且

asipi=1

因此由克拉夫特不等式,存在一种有这些字长的无前缀编码。因此最小的 Template:Mvar 满足

𝔼S=pisi<pi(logapi+1)=pilog2pilog2a+1=H(X)log2a+1

参考资料

Template:Reflist

  1. 引用错误:<ref>标签无效;未给name(名称)为Shannon的ref(参考)提供文本
  2. 引用错误:<ref>标签无效;未给name(名称)为MacKay的ref(参考)提供文本
  3. 引用错误:<ref>标签无效;未给name(名称)为Cover的ref(参考)提供文本