码迷,mamicode.com
首页 > 其他好文 > 详细

<PY>计算信息熵

时间:2015-08-29 20:21:06      阅读:392      评论:0      收藏:0      [点我收藏+]

标签:

#python3  calculate Shannon Entropy
from math import log2
def calcShannonEnt(dataSet):
    length,dataDict=float(len(dataSet)),{}
    for data in dataSet:
        try:dataDict[data]+=1
        except:dataDict[data]=1
    return sum([-d/length*log2(d/length) for d in list(dataDict.values())])

#print(calcShannonEnt(['A','B','C','D','A']))






贝尔实验室和MIT有很多人将香农和爱因斯坦相提并论,而其他人则认为这种对比是不公平的------对香农是不公平的。

版权声明:本文为博主原创文章,未经博主允许不得转载。

<PY>计算信息熵

标签:

原文地址:http://blog.csdn.net/awsxsa/article/details/48089697

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!