概率论是人们在长期实践中发现的理论,是客观存在的。自然界和社会上发生的现象是多种多样的,有一类现象,在一定条件下必然发生,称作确定性现象,而概率论研究的现象是不确定性现象,嗯嗯,醒醒,概率论研究的对象是随机现象。那什么是随机现象呢?在个别试验中呈现出不确定性,而在大量重复实验中呈现出固有规律性的现象 ...
分类:
其他好文 时间:
2018-04-11 18:12:26
阅读次数:
176
正态分布的概率密度函数为: 第一参数μ是遵从正态分布的随机变量的均值,第二个参数σ^2是此随机变量的方差,所以正态分布记作N(μ,σ^2 )。(方差的平方根就是标准差,标准差的平方就是方差)。 均数μ决定正态曲线的中心位置;标准差σ决定正态曲线的陡峭或扁平程度。σ越小,曲线越陡峭分布越集中在μ附近, ...
分类:
其他好文 时间:
2018-04-09 21:02:41
阅读次数:
189
一、前述 马尔可夫(1856~1922),苏联数学家。切比雪夫的学生。在概率论、数论、函数逼近论和微分方程等方面卓有成就。 马尔可夫模型(Markov Model)是一种统计模型,广泛应用在语音识别,词性自动标注,音字转换,概率文法等各个自然语言处理等应用领域。经过长期发展,尤其是在语音识别中的成功 ...
分类:
其他好文 时间:
2018-04-09 15:06:38
阅读次数:
181
学习人工智能有段时间了,总结了一下人工智能的学习历程和课程表,希望对想学习的朋友有所帮助。期间也买了很多资料。可以分享给大家。 阶段一:数学基础 1.数据分析 常数e 导数 梯度 Taylor gini系数 信息熵与组合数 2.概率论 概率论基础 古典模型 常见概率分布 大数定理和中心极限定理 协方 ...
分类:
其他好文 时间:
2018-04-08 18:02:33
阅读次数:
212
注:点估计是参数估计中的一种。点估计常用的方法有两种:矩估计和最大似然估计。之所以要做估计,最本质的问题是我们能获得的信息量(样本的数量)有限,因此只能在有限的信息中,用合理的方法、在可接受的精度或置信度下做近似计算,以便对总体有一个大概的认识,也就是将某种在有限样本下中获得的规律,泛化到更大的样本 ...
分类:
其他好文 时间:
2018-04-07 13:51:28
阅读次数:
175
参考: 模式识别与机器学习(一):概率论、决策论、信息论 了解一些AI方面的前沿知识!!! 待续~ ...
分类:
其他好文 时间:
2018-04-07 11:17:12
阅读次数:
138
课程名称 内容 阶段一、人工智能基础 — 高等数学必知必会 1.数据分析 "a. 常数eb. 导数c. 梯度d. Taylore. gini系数f. 信息熵与组合数g. 梯度下降h. 牛顿法" 2.概率论 "a. 微积分与逼近论b. 极限、微分、积分基本概念c. 利用逼近的思想理解微分,利用积分的方 ...
分类:
其他好文 时间:
2018-04-01 10:43:33
阅读次数:
306
临时整理一下,以后会慢慢补 独立 独立:对于事件$A$和$B$,如果$P(AB)$=$P(A)P(B)$,那么称$A$和$B$是独立的。 所谓独立,即两事件的结果不会相互影响。从样本点的?度来考虑,即两者不包含相同的样本点。 条件概率 条件概率: 如果$P(B)>0$,那么$A$在$B$下的条件概率 ...
分类:
其他好文 时间:
2018-03-28 23:53:54
阅读次数:
237
1、信息量: 公式:I(x) = -logp(x),单从公式上也可以看出,概率越低熵越大(低概率事件带来的高信息量)。通俗一点来说的话,就是概率论中很简单的推广就行了。 2、熵的定义: (1)上面的 I(x) 是指在某个概率分布之下,某个概率值对应的信息量的公式。那么我们要知道这整个概率分布对应的信 ...
分类:
其他好文 时间:
2018-03-20 21:43:19
阅读次数:
234
学习python快一年了,因为之前学习python全栈时,没有记录学习笔记想回顾发现没有好的记录,目前主攻python自然语言处理方面,把每天的学习记录记录下来,以供以后查看,和交流分享。~~(。?ω?。) ~~ 这一系列主要学习和回顾机器学习的数学部分。 微积分: 一:两边夹定理 二:极限存在定理 ...
分类:
其他好文 时间:
2018-03-17 16:15:16
阅读次数:
221