码迷,mamicode.com
首页 > 其他好文 > 详细

信息论-熵

时间:2018-12-06 12:05:24      阅读:307      评论:0      收藏:0      [点我收藏+]

标签:图片   这一   推出   image   意义   集合   表示   .com   有关   

定义

  熵是从整个集合的统计特性所考虑的

  表示信源输出前信源的平均不确定性

  表示信源输出后每个符号携带的平均信息

 

  I(p)只能表示信源中每个符号的信息量,不能作为信源总体的信息量

公式:

  H(x) = E(log 1/p(ai))

       = -∑p(ai) log p(ai)

 

自信息

  发出的消息所携带的信息量, 用I(x)计算

  在消息a中每个符号携带的平均信息量 自信息/符号个数

  自信息不是熵  

 

联合熵与条件熵

  对于信源来说∑p(ai) = 1

  对于联合熵来说∑∑p(aiaj) = 1

  p(aiaj) = p(ai|aj) * p(aj)

   若信源的输出与上一个输出的字符有关系 上一个字符为aj的话,这一个为ai个概率为 p(ai|aj)

  联合熵为H(xixj)  = -∑∑p(aiaj) log p(aiaj) 用于表示信源输出长度为2的平均不确定性

  条件熵为H(xi|xj)  = -∑∑p(ai|aj) p(aj)log p(ai|aj)=-∑∑p(aiaj) log p(ai|aj) 随机序列xixj的联合符号集上的条件自信息量的数学期望

 

  用公式可以推出

       技术分享图片

熵的意义

  H(X):表示信源中每个符号的平均信息量(信源熵)

  H(Y):表示信宿中每个符号的平均信息量(信宿熵)

  H(X|Y):表示在输出端接收到Y的全部符号后,发送端X尚存的平均不确定性。这个对X尚存的不确定性是由于干扰引起的。信道疑义度(损失熵,含糊度)

  H(Y|X):表示在已知X的全部符号后,对于输出Y尚存的平均不确定性。信道散布度(噪声熵)

  H(XY):表示整个信息传输系统的平均不确定性(联合熵)

 

 一些性质

  若原信源 X 中有一个符号分割成了m个元素(符号),这m个元素的概率之和等于原元素的概率,而其他符号的概率不变,则新信源的熵增加

  熵的增加量等于由分割而产生的不确定性量

  

 

信息论-熵

标签:图片   这一   推出   image   意义   集合   表示   .com   有关   

原文地址:https://www.cnblogs.com/shensobaolibin/p/10075720.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!