码迷,mamicode.com
首页 >  
搜索关键字:信息论    ( 177个结果
网络编码(Network Encoding)与多径路由(Multi-path routing)
传统的网络编码研究在以一个简单的例子阐述网络编码方案可以比传统的单路径多传输1.5比特。虽然要了解网络编码的现有研究成果需要概率论、信息论、图论等方面的知识,但感觉似乎这些还没有达到实用程度? 下面几个问题如何解决: 1、如何不知道网络拓扑的情况下“探测”之,并应用一个最佳的网络编码方案? 2、网络编码仅目前提出的那几种方案吗? 3、多源传输信道有何实际意义?既然“多源”,这些源之间如...
分类:Web程序   时间:2015-03-17 23:48:35    阅读次数:392
C汉明距离
在信息论中,两个等长字符串之间的汉明距离是两个字符串对应位置的字符不同的个数。 1 #include 2 /*给定两个字符串,求两个字符串的汉明距离*/ 3 int hamming_distance(char *s1, char *s2) 4 { 5 int i; 6 int di...
分类:其他好文   时间:2015-03-01 13:11:11    阅读次数:122
转载-从信息论角度论证为什么汉语是世界上最先进的语言--引用多项实验数据
#【转载】从信息论角度论证为什么汉语是世界上最先进的语言--引用多项实验数据 作者:汉语计算机应用研究小组(笔名:冷酷的哲学?) ##一、语言水平高低的评判准则 口语,实际上是一种通讯协议。就是说,语言实际...
分类:编程语言   时间:2015-01-29 22:40:05    阅读次数:302
决策树归纳(ID3属性选择度量)Java实现
ID3使用信息增益作为属性选择度量。该度量基于香农在研究消息的值或”信息内容“的信息论方面的先驱工作。该结点N代表或存放分区D的元组。选择具有最高信息增益的属性作为结点N的分裂属性。该属性使结果分区中对元祖分类所需要的信息量最小,并反映这些分区中的最小随机性或”不纯性“。这种方法使得对一个对象分类所需要的期望测试数目最小,并确保找到一颗简单的(但不必是最简单的)树。...
分类:编程语言   时间:2014-12-31 11:22:42    阅读次数:147
记录下我学过的课程
信号与系统 ? 模拟电子技术 ? 数字电子技术 信息论与编码? 通信原理 ? 数字信号处理 电路分析 微机原理及应用 高频电子线路 单片机原理 电视原理与系统 随机信号分析 大学物理 矢量分析与场论 计算机网络 网络...
分类:其他好文   时间:2014-12-23 22:48:15    阅读次数:241
信息熵与互信息的概念
信息熵与互信息的概念本文主要介绍信息论中最基础但同时也是贯穿始终的四个概念,分别是信息熵、条件熵、互信息以及条件互信息。尝试着使用通俗易懂的语言,简单浅显的例子来使得大家对理解这几个数学概念提供一些帮助。1.信息熵现在是信息爆炸的时代,我们都可以通过手机接入互联网,有可能你早上睁开眼睛的第一件事情就...
分类:其他好文   时间:2014-12-21 11:26:16    阅读次数:458
机器学习经典算法详解及Python实现--决策树(Decision Tree)
决策树也是最经常使用的数据挖掘算法,决策树分类器就像判断模块和终止块组成的流程图,终止块表示分类结果(也就是树的叶子)。判断模块表示对一个特征取值的判断(该特征有几个值,判断模块就有几个分支)。决策树的生成过程就是一个数据集不断被划分的过程,划分数据集的最大原则是:使无序的数据变的有序。如果一个训练数据中有20个特征,那么选取哪个做划分依据?这就必须采用量化的方法来判断,量化划分方法有多重,其中一项就是“信息论度量信息分类”。基于信息论的决策树算法有ID3、CART和C4.5等算法,其中C4.5和CART两...
分类:编程语言   时间:2014-12-14 20:03:24    阅读次数:661
信息论基础
1、熵和信息量有一组离散符号集{v1,v2,...,vm},每个符号具有相应概率Pi,为衡量这组符号组成的特定序列的随机性(不确定性或不可预测性),定义离散分布的熵:,对数以2为底,熵的单位的“比特”,当连续情况时,底数为e,单位为“奈特”。对于回答是否问题时,每个可能答案出现概率为0.5,那么此时...
分类:其他好文   时间:2014-11-27 17:40:11    阅读次数:144
统计学习方法概论
1.统计学习 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科,也称统计机器学习。统计学习是数据驱动的学科。统计学习是一门概率论、统计学、信息论、计算理论、最优化理论及计算机科学等多个领域的交叉学科。 统计学习的对象是数据,它从数据出发,提取数据的特征,...
分类:其他好文   时间:2014-11-15 20:13:40    阅读次数:223
信息论-基础知识
对于一个离散的随机变量x,当我们观察到它的一个值,能给我们带来多少信息呢?这个信息量可以看做是我们观察到x的这个值带来的惊讶程度。我们被告知一个不太可能发生的事发生了要比告知一个非常可能发生的事发生,我们获得信息要多。 所以信息量的多少依赖于概率分布p(x),所以我们可以用关于p(x)的一个函数来....
分类:其他好文   时间:2014-10-19 21:21:44    阅读次数:185
177条   上一页 1 ... 15 16 17 18 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!