一、随机变量 可以取不同的值,不同的值有不同的概率。 看到随机变量取任何值,都要想到背后有个概率,如果是连续变量,在每一点的概率是0,连续型随机变量通常只考虑概率密度。 机器学习就是通过一堆随机变量预测另一个随机变量,先假设随机变量之间的概率分布,然后从数据中估计分布的参数。 任何概率模型的假设都是 ...
分类:
其他好文 时间:
2016-10-15 22:30:53
阅读次数:
225
决策树意义: 分类决策树模型是表示基于特征对实例进行分类的树形结构.决策树可以转换为一个if_then规则的集合,也可以看作是定义在特征空间划分上的类的条件概率分布. 它着眼于从一组无次序、无规则的样本数据(概念)中推理出决策树表示形式的分类规则.假设这里的样本数据应该能够用“属性—结论”.决策树学 ...
分类:
其他好文 时间:
2016-10-10 23:27:32
阅读次数:
408
逻辑回归模型是一种将影响概率的不同因素结合在一起的指数模型,得到的是0~1之间的概率分布.自变量范围是,值域范围限制在0~1之间.在搜索广告、信息处理和生物统计中有广泛的应用.例如搜索广告的点击率预估,将影响概率预测的各种信息作为变量,比如广告的位置、广告和搜索词的相关性、广告展示的时间(比如晚上广 ...
分类:
其他好文 时间:
2016-10-10 20:41:54
阅读次数:
200
R编程语言已经成为统计分析中的事实标准。但在这篇文章中,我将告诉你在Python中实现统计学概念会是如此容易。我要使用Python实现一些离散和连续的概率分布。虽然我不会讨论这些分布的数学细节,但我会以链接的方式给你一些学习这些统计学概念的好资料。在讨论这些概率分布之前,我想简单说说什么是随机变量( ...
分类:
编程语言 时间:
2016-10-07 17:51:52
阅读次数:
588
1. 随机变量的概念 顾名思义,随机变量就是“其值随机会而定”的变量。随机变量的反面是“确定性变量”,即其值遵循某种严格的规律的变量,比如从北京到上海的距离。但是从绝对意义上讲,许多通常视为确定性变量的量,本质上都有随机性,只是由于随机性干扰不大,以至在所要求的精度之内,不妨把经作为确定性变量来处理 ...
分类:
其他好文 时间:
2016-10-07 15:49:22
阅读次数:
1208
1、二项分布(Binomial Distribution); 参考wiki,在统计学和概率学中,二项分布是n个独立的0/1(是/非)试验中“成功次数”的离散概率分布,其中每次成功的概率记为p。这种单次成功/失败的试验又称为伯努利分布,事实上,当n被归一化为1时,这种分布被称为伯努利分布。 如果一个随 ...
分类:
其他好文 时间:
2016-10-05 12:47:11
阅读次数:
392
随机变量的分布函数: 1. 定义设X是一个随机变量,x是任意实数,函数F(x)=P{X<=x}称为X的分布函数。 2.1 性质对于任意x1,x2(x1<=x2}-P{X<=x1}=F(x2)-F(x1),因此分布函数描述了 随机变量的统计规律性。 2.2 性质 对于连续型随机变量P{X=a}=0,在 ...
分类:
其他好文 时间:
2016-09-24 17:48:12
阅读次数:
184
Hello,我就是人见人爱,花见花开,蜜蜂见了会打转的小花。。哈哈,我们终于讲到了当年大学让我头痛不已的贝叶斯。先给个模型: 一:贝叶斯定理 维基百科定义:贝叶斯定理(英语:Bayes' theorem)是概率论中的一个定理,它跟随机变量的条件概率以及边缘概率分布有关。在有些关于概率的解说中,贝叶斯 ...
分类:
编程语言 时间:
2016-09-13 11:32:29
阅读次数:
210
1、设X是一个随机变量,取值范围是一个包含M个字母的符号集。证明0≤H(X)≤log2M。 证: 因为所有概率分布P所构成的熵,在等概率时为最大且为 Hmax(X)=log2M所以 H(X)<=log2M.因为x为一个随机变量,出现的概率为P(X).根据概率的公理化定义有: 0<=P(X)<=1已知 ...
分类:
其他好文 时间:
2016-09-12 23:58:33
阅读次数:
153
1.设X是一个随机变量,取值范围是一个包含M个字母的符号集。证明0<=H(x)<=log2M。 因为所有概率分布P所构成的熵,在等概率时为最大且为 Hmax(X)=log2M所以 H(X)<=log2M.因为x为一个随机变量,出现的概率为P(X).根据概率的公理化定义有: 0<=P(X)<=1已知 ...
分类:
其他好文 时间:
2016-09-12 20:24:09
阅读次数:
107