概率论与数理统计 产生随机数 + binornd + poissrnd + exprnd + unidrnd + normrnd 概率密度函数(pdf) + binopdf + poisspdf + geopdf + unidpdf + normpdf + exppdf + chi2pdf: 卡方分 ...
分类:
其他好文 时间:
2018-12-24 22:01:47
阅读次数:
137
数学期望的定义 在概率论和统计学中,数学期望是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。 离散型随机变量X的取值为 , 为X对应取值的概率,可理解为数据 出现的频率 ,则: 设连续性随机变量X的概率密度函数为f(x),若积分绝对收敛,则称积分的值 为随机变量的数学期望,记为E ...
分类:
其他好文 时间:
2018-11-14 01:02:52
阅读次数:
930
概率函数:用函数的形式来表达概率 概率分布:离散型随机变量的值分布和值的概率分布列表 分布函数:概率函数取值的累加结果,所以它又叫累积概率函数 概率密度函数:连续型随机变量的“概率函数” 左边是F(x)连续型随机变量分布函数画出的图形,右边是f(x)连续型随机变量的概率密度函数画出的图像,它们之间的 ...
分类:
其他好文 时间:
2018-11-09 22:03:00
阅读次数:
156
1. 概率密度函数的参数估计 前文讲到了利用贝叶斯决策理论构建贝叶斯分类器,初学者难免会有疑问,既然已经可以通过构建贝叶斯分类器的方法处理分类问题,那为什么还要学习本章节内容? 事实上,贝叶斯分类器的缺可以通过计算先验概率与类条件概率来设计最优分类器。但是对于大多数实际问题,我们往往无法知道这两个概 ...
分类:
其他好文 时间:
2018-11-08 00:21:39
阅读次数:
185
逻辑斯蒂回归(logistic regression) 是经典的分类方法。虽然名字中包含回归,但它被用来 分类 。 逻辑斯蒂分布 设 $X$ 是随机变量,$X$ 服从逻辑斯蒂分布是指 $X$ 的概率分布函数 $F(x)$ 和概率密度函数 $f(x)$ 为: $$F(x) = P(X \le x) = ...
分类:
其他好文 时间:
2018-11-04 22:54:34
阅读次数:
218
定义:如果我们的随机变量是标准正态分布(详见以前博客的高斯分布),那么多个随机变量的平方和服从的分布即为卡方分布。 X=Y12+Y22+?+Yn2 其中,Y1,Y2,?,Yn均为服从标准正态分布的随机变量,那么XX服从卡方分布,值得注意的是其中的nn即随机变量的个数成为卡方分布的自由度。概率密度函数 ...
分类:
其他好文 时间:
2018-10-13 12:58:12
阅读次数:
693
from sympy import integratefrom sympy.abc import ximport random#integrate(参数1=概率密度函数,参数2=积分起始点,参数3=积分结束点) def pro(expect_roi,mina,maxb,medic): if expe ...
分类:
其他好文 时间:
2018-09-28 14:41:09
阅读次数:
181
绪论 信息论解答了通信理论中的两个基本问题:临界数据压缩(答案:熵H)和临界通信传输速率的值(答案:信道容量C) 熵 如果随机变量 X 的概率密度函数为 p(x) ,那么 X 的熵定义为 使用以2为底的对数函数,熵的量纲为比特。熵可以看作是随机变量的平均不确定度的度量。在平均意义下,它是为了描述该随 ...
分类:
其他好文 时间:
2018-09-09 16:53:22
阅读次数:
239
参考: 从最大似然到EM算法浅解 (EM算法)The EM Algorithm EM算法的九层境界:Hinton和Jordan理解的EM算法 在EM算法的证明中,其实比较好理解,总结如下: 从最大似然估计出发 > 将隐变量暴露出来,写出累加/积分的 形式 > 引入Q(z),表示隐变量z的概率密度函数 ...
分类:
编程语言 时间:
2018-08-20 00:28:07
阅读次数:
8398
线性回归 人工智能是机器学习的父类;机器学习是深度学习的父类 1. 怎么做线性回归? 2. 理解回归 -- 最大似然函数 3. 应用正态分布概率密度函数 -- 对数总似然 4. 推导出损失函数 -- 推导出解析解 5. 代码实现解析解的方式求解 -- 梯度下降法的开始 -- sklearn模块使用线 ...
分类:
其他好文 时间:
2018-08-14 22:51:12
阅读次数:
307