查看“︁联合熵”︁的源代码
←
联合熵
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
{{Unreferenced|time=2015-03-16T13:46:07+00:00}} [[File:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|right|独立的(H(X),H(Y)), 联合的(H(X,Y)), 以及一对带有互信息 I(X; Y) 的相互关联的子系统 X,Y 的条件熵。]] '''联合[[熵 (信息论)|熵]]'''是一集变量之间不确定性的衡量手段。 ==定义== 两个变量<math>X</math> 和 <math>Y</math> 的联合[[信息熵]]定义为: :<math>\Eta(X,Y) = -\sum_{x} \sum_{y} P(x,y) \log_2[P(x,y)] \!</math> 其中 <math>x</math> 和 <math>y</math> 是 <math>X</math> 和 <math>Y</math>的特定值, 相应地, <math>P(x,y)</math> 是这些值一起出现的[[联合分布|联合概率]], 若<math>P(x,y)=0</math> ,则<math>P(x,y) \log_2[P(x,y)]</math> 定义为0。 对于两个以上的变量 <math>X_1, ..., X_n</math> ,该式的一般形式为: :<math>\Eta(X_1, ..., X_n) = -\sum_{x_1} ... \sum_{x_n} P(x_1, ..., x_n) \log_2[P(x_1, ..., x_n)] \!</math> 其中 <math>x_1,...,x_n</math> 是 <math>X_1,...,X_n</math> 的特定值,相应地,<math>P(x_1, ..., x_n)</math> 是这些变量同时出现的概率,若<math>P(x_1, ..., x_n)=0</math>,则 <math>P(x_1, ..., x_n) \log_2[P(x_1, ..., x_n)]</math> 被定义为0. ==性質== ===大于每个独立的熵=== 一集变量的联合熵大于或等于这集变量中任一个的独立熵。 :<math>\Eta(X,Y) \geq \max[\Eta(X),\Eta(Y)]</math> :<math>\Eta(X_1, ..., X_n) \geq \max[H(X_1), ..., H(X_n)]</math> ===少于或等于独立熵的和=== 一集变量的联合熵少于或等于这集变量的独立熵之和。这是[[次加性|次可加性]]的一个例子。该不等式有且只有在<math>X</math>和<math>Y</math>均为统计独立的时候相等。 :<math>\Eta(X,Y) \leq \Eta(X) + \Eta(Y)</math> :<math>\Eta(X_1, ..., X_n) \leq \Eta(X_1) + ... + \Eta(X_n)</math> ==与其他熵测量手段的关系== 在[[条件熵]]的定义中,使用了联合熵 :<math>\Eta(X|Y) = \Eta(X,Y) - \Eta(Y)\,</math> [[互信息]]的定义中也出现了联合熵的身影: :<math>I(X;Y) = \Eta(X) + \Eta(Y) - \Eta(X,Y)\,</math> 在[[量子信息]]理论中, 联合熵被扩展到{{Link-en|联合量子熵|joint quantum entropy}}。 [[Category:信息學熵]]
该页面使用的模板:
Template:Link-en
(
查看源代码
)
Template:Unreferenced
(
查看源代码
)
返回
联合熵
。
导航菜单
个人工具
登录
命名空间
页面
讨论
不转换
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
特殊页面
工具
链入页面
相关更改
页面信息