条件熵:修订间差异

来自testwiki
跳转到导航 跳转到搜索
imported>InternetArchiveBot
Add 1 book for verifiability (20240207)) #IABot (v2.0.9.5) (GreenC bot
 
(没有差异)

2024年2月8日 (四) 13:23的最新版本

Template:NoteTA信息论中,条件熵描述了在已知第二个随机变量 X 的值的前提下,随机变量 Y 的信息熵还有多少。同其它的信息熵一样,条件熵也用Sh、nat、Hart等信息单位表示。基于 X 條件的 Y 的信息熵,用 H(Y|X) 表示。

定义

如果 H(Y|X=x) 爲變數 Y 在變數 X 取特定值 x 條件下的熵,那麼 H(Y|X) 就是 H(Y|X=x)X 取遍所有可能的 x 後取平均的結果。

给定随机变量 XY,定義域分別爲 𝒳𝒴,在給定 X 條件下 Y 的條件熵定義爲:[1]

H(Y|X) x𝒳p(x)H(Y|X=x)=x𝒳p(x)y𝒴p(y|x)logp(y|x)=x𝒳y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(y|x)=x𝒳,y𝒴p(x,y)logp(x,y)p(x).=x𝒳,y𝒴p(x,y)logp(x)p(x,y).

注意: 可以理解,對於確定的 c>0,表達式 0 log 0 和 0 log (c/0) 應被認作等於零。

當且僅當 Y 的值完全由 X 確定時,H(Y|X)=0。相反,當且僅當 YX獨立隨機變數H(Y|X)=H(Y)

链式法则

假設兩個隨機變數 XY 確定的組合系統的聯合熵H(X,Y),即我們需要 H(X,Y) bit的信息來描述它的確切狀態。 現在,若我們先學習 X 的值,我們得到了 H(X) bits的信息。 一旦知道了 X,我們只需 H(X,Y)H(X) bits來描述整個系統的狀態。 這個量正是 H(Y|X),它給出了條件熵的链式法则

H(Y|X)=H(X,Y)H(X).

链式法则接著上面條件熵的定義:

H(Y|X)=x𝒳,y𝒴p(x,y)logp(x)p(x,y)=x𝒳,y𝒴p(x,y)logp(x,y)+x𝒳,y𝒴p(x,y)logp(x)=H(X,Y)+x𝒳p(x)logp(x)=H(X,Y)H(X).

貝葉斯規則

條件熵的Template:Link-en表述爲

H(Y|X)=H(X|Y)H(X)+H(Y).

證明. H(Y|X)=H(X,Y)H(X) and H(X|Y)=H(Y,X)H(Y)。對稱性意味著 H(X,Y)=H(Y,X)。將兩式相減即爲貝葉斯規則。

推广到量子理论

量子信息论中,条件熵都概括为量子条件熵

參考文獻

Template:Reflist