1 定义2 直观解释信息熵用来衡量信息量的大小若不确定性越大,则信息量越大,熵越大若不确定性越小,则信息量越小,熵越小比如A班对B班,胜率一个为x,另一个为1-x则信息熵为 -(xlogx + (1-x)log(1-x))求导后容易证明x=1/2时取得最大,最大值为2也就是说两者势均力敌时,不确定性...
分类:
其他好文 时间:
2014-09-13 20:02:35
阅读次数:
245
通过前面问题以及引入了“信息熵”的概念,我们可以重新来理解排序的本质:一组未排序的N个数字,它们一共有N!种重排,其中只有一种排列是满足题意的(譬如从大到小排列)。换句话说,排序问题的可能性一共有N!种。任何基于比伯爵娱乐城较的排序的基本操作单元都是“比较a和b”,这就相当于猜数字游戏里面的一个问句...
分类:
其他好文 时间:
2014-09-13 18:33:35
阅读次数:
195
信息是个很抽象的概念。人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本五十万字的中文书到底有多少信息量。直到1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题。三国真人娱乐城一条信息的信息量大小和它的不确定性有直接的关系。比如说,我们要搞清楚一件非常非常不确...
分类:
其他好文 时间:
2014-09-13 18:32:25
阅读次数:
497
每一个软件项目的第一个版本都很漂亮。新项目从零开始,所有的内容都是新开发的。因为全新开发,就意味着没有历史负担的问题。第一个版本的BUG非常少,当然,程序员也尽力做到最好。这意味着,在开发人员的...
分类:
其他好文 时间:
2014-09-06 20:04:54
阅读次数:
314
一个快速计算熵值的程序。与朴素熵计算实现函数比,x64下快20+倍,x86下快5倍。
分类:
其他好文 时间:
2014-09-04 01:38:09
阅读次数:
269
ID3算法是J. Ross Quinlan在1975提出的分类预测算法,当时还没有数据挖掘吧,哈哈哈。该算法的核心是“信息熵”,属于数学问题,我也是从这里起发现数据挖掘最底层最根本的不再是编程了,而是数学,编程只是一种实现方式而已,数学才是基础,如:朴素贝叶斯分类,小波聚类,尤其是我正在搞的支持向量...
分类:
其他好文 时间:
2014-08-31 11:46:11
阅读次数:
298
信息熵很亮的是在你知道一个事件的结果后,平均会带给你多大的信息量,当事件的不确定性越大,那么要搞清它所需要的信息量也就越大,也就是信息熵越大,是无序性,不确定性的度量指标。
信息熵的计算:
-p[i]logp[i],底数为2
public static double calcEntropy(int p[]) {
double entropy = 0;
// 用来计算总的样本数量,p[...
分类:
其他好文 时间:
2014-08-25 15:01:05
阅读次数:
293
与KNN比较:KNN是计算未知类型数据与已知类型数据之间的距离,与数值计算相关。Decision Tree 先是在已知数据集上构造好一棵决策树,树中的每个分叉会用到一个特征,这就需要用到信息熵的概念,对每个特征计算信息熵 来使得分叉处选取到最好的特征对数据进行分类,(训练集选取好最佳特征,测试集就按...
分类:
其他好文 时间:
2014-08-23 15:22:50
阅读次数:
210
MALLET:基于Java语言的用于统计自然语言处理,文件分类,聚类,主题建模,信息提取,和其他的用于文本的机器学习应用的Java包。
MALLET包括复杂的用于文件分类的工具:
有效的用于转换文本到“特征”的程序,多种多样的算法(包括朴素贝叶斯,最大熵,和决策树)。以及一些通用的指标用于评估分类器性能。
除了分类,MALLET包括序列标注的工具,像从文本...
分类:
其他好文 时间:
2014-08-16 11:15:20
阅读次数:
256