查看“︁自信息”︁的源代码
←
自信息
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
{{Unreferenced|time=2023-05-30T08:50:59+00:00}} {{noteTA |G1=Communication |1=zh-hans:自信息;zh-hant:資訊本體; }} 在[[信息论]]中,'''自信息'''({{lang-en|self-information}}),由[[克勞德·夏農]]提出。'''自信息'''指的是当我们接收到一个消息时所获得的信息量。具体来说,对于一个事件,其'''自信息'''的大小与该事件发生的概率有关, 它是与概率空间中的單一事件或离散随机变量的值相关的資訊量的量度。它用信息的單位表示,例如 [[位元|bit]]、[[纳特|nat]]或是hart,使用哪个单位取决于在计算中使用的对数的底。'''自信息'''的期望值就是信息论中的[[熵 (信息论)|熵]],它反映了随机变量采样时的平均不确定程度。 ==定義== 由定义,当信息被拥有它的实体传递给接收它的实体时,仅当接收实体不知道信息的先验知识时信息才得到传递。如果接收实体事先知道了消息的内容,这条消息所传递的信息量就是0。只有当接收实体对消息的先验知识少于100%时,消息才真正传递信息。 因此,一個隨機產生的事件<math>\omega_n</math>所包含的資訊本體數量,只與事件發生的機率相關。事件發生的機率越低,在事件真的發生時,接收到的資訊中,包含的資訊本體越大。 <math>\omega_n</math>的自信息量 <math>\operatorname I(\omega_n) = f(\operatorname P(\omega_n)) </math> 如果 <math>\operatorname P(\omega_n) = 1</math>,那么 <math>\operatorname I(\omega_n) = 0</math>。如果 <math>\operatorname P(\omega_n) < 1</math>,那么 <math>\operatorname I(\omega_n) > 0</math>。 此外,根据定义,自信息的量度是非负的而且是可加的。如果事件 <math>C</math>是两个[[统计独立性|独立]]事件 <math>A</math>和 <math>B</math>的'''交集''',那么宣告 ''<math>C</math>''发生的信息量就等于分别宣告事件 ''<math>A</math>''和事件 ''<math>B</math>''的信息量的'''和''': <math>\operatorname I(C) = \operatorname I(A \cap B) = \operatorname I(A) + \operatorname I(B)</math> 因为 ''<math>A</math>''和 ''<math>B</math>''是独立事件,所以 <math>C</math>的概率为 <math>\operatorname P(C) = \operatorname P(A \cap B) = \operatorname P(A) \cdot \operatorname P(B)</math> 应用函数 <math>f(\cdot)</math>会得到 <math>\begin{align} \operatorname I(C) & = \operatorname I(A) + \operatorname I(B) \\ f(\operatorname P(C)) & = f(\operatorname P(A)) + f(\operatorname P(B)) \\ & = f\big(\operatorname P(A) \cdot \operatorname P(B)\big) \\ \end{align}</math> 所以函数 <math>f(\cdot)</math>有性质 <math>f(x \cdot y) = f(x) + f(y)</math> 而对数函数正好有这个性质,不同的底的对数函数之间的区别只差一个常数 <math>f(x) = K \log(x)</math> 由于事件的概率总是在0和1之间,而信息量必须是非负的,所以 <math>K<0</math> 考虑到这些性质,假設事件<math>\omega_n</math>發生的機率是 <math>P(\omega_n)</math>,資訊本體 <math>I(\omega_n)</math> 的定義就是: :<math>\operatorname I(\omega_n) = -\log(\operatorname P(\omega_n)) = \log \left(\frac{1}{\operatorname P(\omega_n)} \right) </math> 事件 <math>\omega_n</math>的概率越小, 它发生后的自信息量越大。 此定义符合上述条件。在上面的定义中,没有指定的对数的基底:如果以 2 为底,单位是[[位元|bit]]。当使用以 e 为底的对数时,单位将是 nat。对于基底为 10 的对数,单位是 hart。 信息量的大小不同于信息作用的大小,这不是同一概念。信息量只表明不确定性的减少程度,至于对接收者来说,所获得的信息可能事关重大,也可能无足轻重,这是信息作用的大小。 == 和熵的联系 == 熵是离散随机变量的自信息的期望值。但有时候熵也会被称作是随机变量的自信息,可能是因为熵满足 <math>\operatorname H(X) = \operatorname I(X; X)</math>,而 <math>\operatorname I(X;X)</math>是 <math>X</math>与它自己的[[互信息]]。 [[Category:信息论]] [[Category:信息學熵]]
该页面使用的模板:
Template:Lang-en
(
查看源代码
)
Template:NoteTA
(
查看源代码
)
Template:Unreferenced
(
查看源代码
)
返回
自信息
。
导航菜单
个人工具
登录
命名空间
页面
讨论
不转换
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
特殊页面
工具
链入页面
相关更改
页面信息