码迷,mamicode.com
首页 > 其他好文 > 详细

自信息、信息熵和相对熵

时间:2018-08-30 21:40:04      阅读:273      评论:0      收藏:0      [点我收藏+]

标签:分享   latex   str   最小   .com   理解   信息   log   技术分享   

1、自信息

一件事发生的概率越大,其所带的信息量就越小,反之发生的概率越小,信息量就越大。

自信息就是以概率p(x)观察到某一事件发生所携带的信息量,自信息也是概率越大信息量就越小,也可以理解为某个概率事件进行编码所需要的最小编码长度

技术分享图片

2、信息熵/香农熵

熵是平均自信息量,

 

自信息、信息熵和相对熵

标签:分享   latex   str   最小   .com   理解   信息   log   技术分享   

原文地址:https://www.cnblogs.com/zhaopAC/p/9562738.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!