码迷,mamicode.com
首页 > 其他好文 > 详细

P1-概率论基础(Primer on Probability Theory)

时间:2016-12-31 18:06:34      阅读:846      评论:0      收藏:0      [点我收藏+]

标签:归一化   函数   and   简化   信息论   1.5   定义   mat   ram   

2.1概率密度函数

2.1.1定义

设p(x)为随机变量x在区间[a,b]的概率密度函数,p(x)是一个非负函数,且满足

技术分享

技术分享

注意概率与概率密度函数的区别。

概率是在概率密度函数下对应区域的面积,如上图右所示,其公式如下

技术分享

我们用概率密度函数来表示在区间[a,b]中所有可能的状态x的可能性

条件概率密度函数,设p(x|y)是在条件y属于[r,s]下x(x属于[a,b])的概率密度函数,有

技术分享

N维连续随机变量的联合概率密度函数记为p(X),其中X=(x1,...,xn),xi属于[ai,bi],有时我们也用符号

技术分享来替代p(X).

有时,甚至会混合搭配技术分享作为X和Y的联合概率密度函数。在N维例子中,有

技术分享

2.1.2贝叶斯规则和推导

首先,把一个联合概率密度函数进行因式分解,有

技术分享

重新整理后得到贝叶斯原理:

技术分享

我们可以通过这个公式来推导在给定测量条件下状态的后验概率-p(x|y)。如果我们有一个对状态的先验概率密度函数p(x),以及对传感器模型的先验概率密度函数p(y|x)。通过扩大分母,有如下,

技术分享

分母的由来通过边缘化,如下

技术分享,这在一般的非线性情况下去这么解释非常耗时的。

注意,在贝叶斯推论中,p(x)称为先验概率密度函数,而p(x|y)称为后验概率密度函数。这样,所有的先验信息都集中于p(x)而所有的后验信息都集中于p(x|y)。

2.1.3概率密度函数的矩

第0阶概率矩总是为1,第一阶概率矩称为均值μ,有如下

技术分享

对于一般的矩阵函数F(X),其期望写成

技术分享

但是我们把上面写成

技术分享

第二阶概率矩称为协方差矩阵Σ:

技术分享

那么下两个矩称为skewness and kurtosis(偏态和峰态)。

!!!!!!!!!向量的概率相关信息以及随机变量的概率相关信息的区别

2.14 样本均值和协方差

假设我们有随机变量x,以及它的概率密度函数p(x),我们可以从这个概率密度函数中得到样本,可以表示为

技术分享

一个样本有时也称为随机变量的一个实现,我们直观地把它想成一次测量。

如果我们想要得到N个那样的样本,且想要估计随机变量x的均值和协方差,我们可以运用样本均值和样本协方差来这么做:

技术分享

 

很明显,在样本协方差中的分母运用N-1而非N来作为归一化,这称为贝塞尔的校正。

2.1.5统计独立,以及不相关

两个随机变量x和y,我们说他们统计独立的话,则他们的联合概率密度因式分解为如下:

技术分享

如果有以下等式成立

技术分享,则称变量不相关。

独立一定不相关,反之,则不然。我们将通常假设变量是统计独立的来简化计算。

2.1.6香农和互信息

通常我们对一些随机变量估计其概率密度函数,然后想要去量化我们是有多么的确定,例如,概率密度函数的均值。

一种方法就是查看负熵或者香农信息,H,它由如下给出

技术分享

我们将在下面用高斯概率密度函数具体来表达。

另一个有用的量是互信息,I(X,Y),它在随机变量x和y之间,形式给出如下

技术分享

互信息(Mutual Information)是信息论里一种有用的信息度量,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不肯定性。

技术分享

当x和y都统计独立,则有

技术分享

当x和y是依赖的,我们有技术分享我们还有有用的关系,如下

技术分享

2.17Cramer-Rao下界和费舍尔信息

假设有一个确定性的参数 θ,它影响随机变量x的结果。这可以通过把x的概率密度函数写成依赖于 θ来获得,如下

技术分享

进一步假设我们得到一个从p(x| θ)的样本技术分享

技术分享

那么, the Cramér-Rao lower bound (CRLB)说的是确定性参数θ的然和无偏估计技术分享的协方差由费舍尔信息矩阵定下界,技术分享

技术分享

无偏估计意味着技术分享,下界意味着技术分享

技术分享

因此CRLB就设置了一个基本的下限在给出我们测量之后,对一个参数的估计有多确定。

2.2高斯概率密度函数

一维高斯概率密度函数,由如下形式给出

技术分享

μ是均值,技术分享是协方差,σ表示标准差,下图表示了一维高斯密度函数,

技术分享

多维高斯密度函数,技术分享,其中随机变量x是n维的,技术分享表达如下,

技术分享

技术分享是一个对称正定的协方差矩阵

技术分享

技术分享

技术分享

2.2.2 Isserlis定理

多维高斯密度函数的矩去计算均值以及协方差以外的量会比较麻烦,但是有一些具体的例子稍后我们会利用,这值得讨论。我们可以运用Isserlis定理来计算更高阶的高斯随机变量技术分享

定理如下

技术分享

设有四个变量,表示如下

技术分享

我们可以把这个理论应用到计算矩阵表示的有用结果。

假设有,技术分享,要去计算表达式技术分享

p为非负整数,当p=0时,有技术分享,当p=1时,有

技术分享

在标量中,技术分享,因此由上面得出,技术分享技术分享,对于p大于1,也用同样的方法。

我们也考虑如下例子,

技术分享

x1的维数为N1,x2的维数为N2,计算如下表达式

技术分享

同理,p是非负整数,当p=0时,有技术分享,当p=1时,有

技术分享

类似的,有

技术分享

最后来核查一下,有

技术分享

进一步,我们有

技术分享

A是一个与上面兼容的方阵。

2.2.3联合高斯概率密度函数,他们的因式分解,以及推断

对一对变量(x,y)的联合高斯,可写为

技术分享

它也有同样的概率表示形式,这里的技术分享

我们可以用舒尔补码来求解联合高斯

技术分享

技术分享

技术分享

技术分享

很重要的是p(x|y)和p(y)是高斯密度函数,如果正好我们知道y的值(比如经过测量得到的),我们就可以计算出x在y条件下的可能性通过p(x|y)来计算。

这是高斯推断的一个基础:我们以关于我们的先验状态技术分享开始,然后通过一些测量技术分享来缩小先验状态x的范围,在  (2.46b)中,我们看到了对均值技术分享和协方差技术分享的一个调整,使之变得更小了。

 

P1-概率论基础(Primer on Probability Theory)

标签:归一化   函数   and   简化   信息论   1.5   定义   mat   ram   

原文地址:http://www.cnblogs.com/gary-guo/p/6239575.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!