查看“︁有噪信道编码定理”︁的源代码
←
有噪信道编码定理
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
{{Rough translation|time=2024-02-22T18:05:26+00:00}} {{noteTA |T = zh-hans:有噪信道编码定理; zh-hant:雜訊通道編碼定理; |1 = zh-hans:噪声; zh-hant:雜訊; |2 = zh-hans:通信; zh-hant:通訊; |3 = zh-hans:信息; zh-hant:訊息; |4 = zh-hans:香农; zh-hant:向農; }} 在[[信息论]]{{里}},'''有噪信道编码定理'''指出,尽管[[噪声]]会干扰[[通信]][[信道]],但还是有可能在信息传输速率小于信道容量的前提下,以任意低的错误概率传送数据[[信息]]。这个令人惊讶的结果,有时候被称为'''信息原理基本定理''',也叫做'''香农-哈特利定理'''或'''香农定理''',是由[[克劳德·艾尔伍德·香农]]于1948年首次提出。 通信信道的[[信道容量]]或'''香农限制'''是指在指定的噪音标准下,信道理论上的最大传输率。 == 总述 == 根据香农1948年的陈述,本定理描述了在不同级别的噪音干扰和数据损坏情况下,[[错误监测和纠正]]可能达到的最高效率。定理没有指出'''如何'''构造错误监测的模型,只是告诉大家''有可能''达到的最佳效果。香农定理可以广泛应用在[[通信]]和[[数据存储]]领域。本定理是现代[[信息论]]的基础理论。香农只是提出了证明的大概提纲。1954年,[[艾米尔·范斯坦]]第一个提出了严密的论证。 香农定理假设一个有噪音的信道,[[信道容量]]为''C'',信息以速度''R''传送,如果 :<math> R < C \,</math> 那么就存在一种编码技术使接收端收到的错误达到任意小的数值。这意味着理论上,有可能无错误地传送信息直到达到速度限制''C''。 反过来同样重要。如果 :<math> R > C \,</math> 那么想达到任意小的错误率是不可能实现的。因此,在传送速度超过信道容量的时候,可靠传输信息是不能被保证的。定理并没有指出在什么特殊情况下速度和容量相等。 简单的流程如「重复发送数据3遍,用一个投票系统在数据不一样的时候选择3个里面相同的那两个的值」是低效的错误纠正的方式,不能保证数据块能完全没有错误地传送。先进一些的技术如[[里德-所罗门码]]编码技术和更现代一些的[[Turbo码]]、[[低密度奇偶檢查碼]]等编码技术更逼近香农限制,但是计算复杂度很高。 == 数学描述 == 定理(香农,1948年): :1.一个离散无记忆信道的[[信道容量]] ::<math>C = \max_{P_X} \,I(X;Y)</math> :具有以下特点:任给ε > 0, ''R < C'',存在着长度为''N'',信息传输速率小于等于R的编码和相应解码算法,使得最大可能传输错误率≤ ε。 :2.如果允许误码率''p<sub>b</sub>'',那么存在一种编码方式,使得信息传输速率速度可以提高到''R(p<sub>b</sub>)'',其中 ::<math>R(p_b) = \frac{C}{1-H_2(p_b)} .</math> :而<math> H_2(p_b)</math>是一个''二元[[熵 (信息论)|熵]]函数'',定义为 ::<math>H_2(p_b) =- \left[ p_b \log {p_b} + (1-p_b)\log ({1-p_b}) \right]</math> :3.给定<math>p_b</math>,不存在速度大于''R(p<sub>b</sub>)''的编码方式,使得最大可能传输错误率小于<math>p_b</math>。(MacKay (2003), p. 162; cf Gallager (1968), ch.5; Cover and Thomas (1991), p. 198; Shannon (1948) thm. 11) ==证明框架== 和信息论的其它主要结果一样,噪音信道编码定理包括一个可以实现的结果和相应的相反的结果。这两个组成部分中间有一个界线。在本案例中,可以通过有噪音的信道的可能速度的集合和相应边界显示出这是一个紧密边界。 下面的证明框架只是已有的许多种不同证明方法中的一种而已。 ===离散无记忆信道的可实现性=== 下面这个可实现性的证明是使用[[渐近等同分割特性]]({{link-en|Asymptotic equipartition property|Asymptotic equipartition property}} - AEP)方法。另一种信息论常用证明方法是错误列举法({{link-en|Error Exponent|Error Exponent}})。 两种证明方法都使用随机编码参数来构造信道。这样的目的是减少计算的复杂度,同时仍旧可以证明在速度低于[[信道容量]]的时候,存在误码率在可接受范围甚至是接近于理想的无失真的编码方式。 采用AEP相关的参数,一个指定的信道,长度为n的源字符串<math>X_1^{n}</math>,和长度为n的信道输出的字符串<math>Y_1^{n}</math>,我们可以定义一个以下''匹配序列集合'': : <math>A_\varepsilon^{(n)} = \{(x^n, y^n)\in \mathcal X^n \times \mathcal Y^n </math> :::<math>2^{-n(H(X)+\varepsilon)} \le p(X_1^n)\le 2^{-n(H(X) - \varepsilon)}</math> :::<math>2^{-n(H(Y) + \varepsilon)} \le p(Y_1^n)\le 2^{-n(H(Y)-\varepsilon)}</math> :::<math>{2^{-n(H(X,Y) + \varepsilon)}}\le p(X_1^n, Y_1^n)\le 2^{-n(H(X,Y) -\varepsilon)} \}</math> 我们可以说两个序列<math>{X_1^n}</math>和<math>Y_1^n</math>是''匹配序列'',如果它们是基于上述定义的匹配序列集合。 '''步骤''' #在随机编码参数的方法上,我们可能的范围Q里面随机产生<math> 2^{nR} </math>长度为n的编码串。 #这个编码和发送端与接收端有关。同样假设双方知道传输信道使用的传输矩阵<math>p(y|x)</math>。 #在同样的范围里选择消息W,因此,<math>\operatorname{Pr}(W = w) = 2^{-nR}, w = 1, 2, ..., 2^{nR}</math>。 #消息W通过信道传送。 #接收端收到了一个基于<math>P(y^n|x^n(w))= \prod_{i = 1}^np(y_i|x_i(w))</math>的序列。 #将这些编码串通过信道发送,我们收到了<math>Y_1^n</math>,如果在编码表里存在和Y匹配的一个序列,该序列并被解码成为源编码序列,如果没有找到,就报告一个错误。如果解码出的序列和原来的序列不一样,同样报告一个错误。 这个流程产生的错误可以分成两个部分: #没有找到和接收到的Y序列相匹配(或在允许的误码率条件下)的X序列。 #接收到的Y序列解码成一个错误的X序列。 *考虑到构造码时的随机性,我们可以假设平均的错误的产生率和码发送的序列没有关系。因此,我们假设W = 1。 *从匹配AEP方法考虑,我们知道随着n的逐渐增加,没有对应的X的可能性慢慢降为0。我们可以用<math>\epsilon</math>来标记这个错误的可能性。 *同样从匹配AEP方法考虑,我们知道一个指定的<math>X_1^{n(i)}</math>和<math>Y_1^n</math>,作为W = 1的结果是匹配序列的可能性为<math>\le 2^{-n(I(X;Y) - 3\epsilon)}</math>。 定义:<math>E_i = \{(X_1^n(i), Y_1^n) \in A_\epsilon^{(n)}\}, i = 1, 2, ..., 2^{nR}</math> 作为消息1发送出去,消息i作为匹配的消息接收到的结果。 : <math> \begin{align} P(\text{error}) & {} = P(\text{error}|W=1) \le P(E_1^c) + \sum_{i=2}^{2^{nR}}P(E_i)\\ & {} \le P(E_1^c) + (2^{nR}-1)2^{-n(I(X;Y)-3\varepsilon)} \\ & {} \le \varepsilon + 2^{-n(I(X;Y)-R-3\varepsilon)}. \end{align} </math> 我们可以发现如果信道<math>R < I(X;Y)</math>,n变为无穷大,错误的可能性将降为0。 最后,假设平均的编码方式是“好”的话,我们知道存在一个编码方式的效率比平均的值要好,因此可以满足我们在有噪音的信道低误码率的要求。 ===弱逆离散无记忆信道=== 假设一种编码有<math>2^{nR}</math>个编码词语。W假设为在这个集合上的一个索引。设<math>X^n</math>和<math>Y^n</math>分别为编码词和接收到的词。 #<math>nR = H(W) = H(W|Y^n) + I(W;Y^n)\;</math>使用同样的熵和同样的信息 #<math>\le H(W|Y^n) + I(X^n(W);Y^n)</math>X是W的一个函数 #<math>\le 1 + P_e^{(n)}nR + I(X^n(W);Y^n)</math>使用Fano不等式 #<math>\le 1 + P_e^{(n)}nR + nC</math>信道容量设为最大化 这些步骤的结果是<math> P_e^{(n)} \ge 1 - \frac{1}{nR} - \frac{C}{R} </math>。当块的长度变为无穷大,如果R比C大,我们得到<math> P_e^{(n)}</math>不可能降到0。只有在R比C小的情况下,我们可以得到任意低的误码率。 ===强逆离散无记忆信道=== 强逆定理证明由Wolfowitz于1957年提出。<ref>Robert Gallager. ''Information Theory and Reliable Communication.'' New York: John Wiley and Sons, 1968. ISBN 0-471-29048-3</ref>,证明归结于证明如下不等式, :<math> P_e \geq 1- \frac{4A}{n(R-C)^2} - e^{-n(R-C)} </math> 其中<math>A</math>为有限的正常数。当<math>n</math>变为无穷大的时候,弱逆定理证明错误的可能性不可能变成0,而强逆定理证明了错误以指数方式趋向于1。因此,<math>C</math>是可靠连接和不可靠连接的临界点。 ==时变无记忆信道的信道编码定理== 我们假设信道是无记忆的,但是随着时间的变化,传输的可靠性是变化的。发送端和接收端一样工作正常。这样信道容量如下 :<math> C=\liminf \max_{p^{X_1},p^{X_2},...}\frac{1}{n}\sum_{i=1}^nI(X_i;Y_i) </math>。 针对每个不同的信道,计算出取得该信道容量似的分布,以求得上式中的最大值,这样 <math> C=\liminf \frac{1}{n}\sum_{i=1}^n C_i </math> ,信道i的容量为<math>C_i</math>。 === 简略证明=== 证明方法和上面信道编码定理几乎一样。在指定的信道里面,每一个符号的选择是随机的,编码方式也是随机的,采用[[渐近等同分割特性]](AEP)方法来定义变化的无记忆信道的参数集。 当<math>\frac{1}{n}\sum_{i=1}^n C_i</math>不收敛时,[[上极限和下极限|下极限]]开始起作用。 == 参考文献 == === 引用 === {{Reflist}} === 来源 === * [[克劳德·艾尔伍德·香农]]:《[http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html 通信的数学理论] {{Wayback|url=http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html |date=19980131083455 }}》Urbana, IL:University of Illinois Press, 1949(reprinted 1998)。 * 艾米尔·范斯坦:《信息论的一个新的基础定理》IEEE Transactions on Information Theory, 4(4):2-22, 1954. * 罗卜特·梵高:《信息传输,通信的一个统计理论》Cambridge, Mass., M.I.T. Press, 1961. ISBN 0-262-06001-9 * 雅各布·Wolfowitz:《面对误码的信息编码》Illinois J. Math., vol. 1, pp. 591-606, 1957. * David J. C. MacKay.《[https://web.archive.org/web/20160217105359/http://www.inference.phy.cam.ac.uk/mackay/itila/book.html 信息论推理,算法演绎]》Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1 * Thomas Cover, Joy Thomas,《信息论要素》。New York, NY:John Wiley & Sons, Inc., 1991. ISBN 0-471-06259-6 == 外部链接 == * [http://www.iet.ntnu.no/projects/beats/Documents/LarsTelektronikk02.pdf 香农定律] {{Wayback|url=http://www.iet.ntnu.no/projects/beats/Documents/LarsTelektronikk02.pdf |date=20160315003216 }} * [http://www.inference.phy.cam.ac.uk/mackay/itila/ 在线书:信息论推理,算法演绎] {{Wayback|url=http://www.inference.phy.cam.ac.uk/mackay/itila/ |date=20150206001819 }},by {{tsl|en|David MacKay|}} - 介绍关于香农定理的一些基本知识,包括两种证明方式,也介绍了现在流行的编码方式。 == 参见 == {{Portal box|电信|数学}} * [[通信]]、[[信道]]、[[信道容量]]、[[香农极限]] * [[信息论]]、[[克劳德·香农]] [[Category:信息论]] [[Category:数学定理|Y]]
该页面使用的模板:
Template:Link-en
(
查看源代码
)
Template:NoteTA
(
查看源代码
)
Template:Portal box
(
查看源代码
)
Template:Reflist
(
查看源代码
)
Template:Rough translation
(
查看源代码
)
Template:Tsl
(
查看源代码
)
Template:Wayback
(
查看源代码
)
Template:里
(
查看源代码
)
返回
有噪信道编码定理
。
导航菜单
个人工具
登录
命名空间
页面
讨论
不转换
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
特殊页面
工具
链入页面
相关更改
页面信息