码迷,mamicode.com
首页 > 其他好文 > 详细

高斯分布

时间:2015-05-13 19:56:26      阅读:336      评论:0      收藏:0      [点我收藏+]

标签:数据挖掘   高斯分布   

数据挖掘中的高斯分布

高斯分布,无论是单变量还是多元变量,在统计数据挖掘中是非常有用的,包括一些底层数据假设是高度非高斯的数据挖掘模型。我们需要好好了解多元高斯。

为什么我们应该关注它

  • 高斯像橘子汁和阳光一样是自然存在的
  • 我们需要它来理解贝叶斯最优分类器
  • 我们需要它来理解回归
  • 我们需要它来理解神经网络
  • 我们需要它来理解混合模型
  • ……

PDF(概率密度函数)的熵

技术分享
分布的熵越大,预测就越困难,压缩就越困难,分布就有越少的尖。
例1、“盒子”分布
技术分享
例2、单位方差“盒子”分布
技术分享
例3、“尖帽”分布
技术分享
单位方差“尖帽”分布
技术分享
“2尖”分布
技术分享
单位方差分布的熵:
技术分享

单变量高斯分布

单位方差高斯分布
技术分享

普通高斯分布
技术分享
我们描述X ~ N(μ,σ2),X是均值为μ方差为σ2的高斯分布,上图中, X ~ N(100,152)。

误差函数:假设X ~ N(0,1),ERF(x)等于X小于x的概率等于X的累积分布。
技术分享
假设X ~ N(μ,σ2),技术分享
技术分享

中心极限定理:如果(X1,X2,…Xn)是独立同分布的连续随机变量,那么定义技术分享,当n->∞时,p(z)->均值为E[Xi],方差为Var[Xi]的高斯分布。

二维高斯分布
技术分享,那么定义X~N(μ,Σ)的均值为:技术分享,其中高斯参数是技术分享,Σ是对称非负矩阵。可以证明E[X] = μ,Cov[X] = Σ(注意这是高斯分布的结果属性,不是定义)。
估计p(x):技术分享

  • 步骤一:选一个向量X
    技术分享
  • 步骤二:定义δ = x - μ
    技术分享
  • 步骤三:计算与椭圆相交的等高线数量,形式为Σ-1,D=sqrt(δTΣ-1δ)=x和μ的马氏距离
    技术分享
  • 步骤四:定义w = exp(-D2/2),在马氏距离的平方空间中,靠近μ的x有较大的权值,而远离的有较小的权值。
    技术分享
  • 步骤五:技术分享乘以w确保技术分享
    例1:
         技术分享
    观察:均值,主轴,非对角线协方差的含义,p(x)的最大梯度区域
    技术分享
    例2:
    技术分享
    技术分享
    例3:
    技术分享
    技术分享
    在这个例子中,x和y几乎是独立的。
    例4:
    技术分享
    技术分享
    这个例子中,x和x+y明显是非独立的。
    例5:
    技术分享
    技术分享
    这个例子中,x和20x+y明显是非独立的。

多元高斯分布

技术分享那么定义X ~ N(μ,Σ)的均值为:
技术分享
其中高斯参数为:
技术分享
Σ是一个非负矩阵。另外,E[X] = μ和Cov[X] = Σ。(注意他们是高斯的结果属性,不是定义)

普通高斯分布
技术分享

轴对齐高斯分布
技术分享

球状高斯分布
技术分享

退化的高斯分布
技术分享
到目前为止,我们见到了高斯公式,对它的行为表现有个直观的认识,也了解了高斯协方差矩阵,接下来给一些高斯分布的技巧。

变量子集
技术分享写作技术分享其中技术分享
这将是我们将m维分布拆分成变量子集的标准符号。

高斯边缘化依然是高斯分布
技术分享
如果技术分享
那么U依然是高斯分布(这个事实不是很明显)技术分享

线性变换后依然保持高斯分布
技术分享
假设X是一个m维高斯随机变量X ~ N(μ,Σ),定义Y是一个p维的随机变量(注意p≤m),因此Y = AX
其中A是一个p x m矩阵,那么Y ~ N(Aμ,AΣ AT )

两个独立的高斯相加依然是高斯分布
技术分享
如果X ~ N(μ , Σ ),Y ~ N(μ , Σ )并且X ⊥ Y,那么
技术分享
为什么X和Y不独立它就不成立呢?
下面两种说明那种对呢?
如果X和Y是非独立的,那么X+Y是高斯分布,但是协方差会改变;
如果X和Y是非独立的,那么X+Y可能是非高斯分布。

有条件的高斯是高斯分布
技术分享
如果技术分享那么,技术分享
其中技术分享
注意:当v的给定值是μv时,u的条件均值是μu;边缘均值是v的一个线性函数;条件方差真好等于或小于边缘方差;条件方差与v的给定值是无关的。
举例说明:
技术分享
如果技术分享那么技术分享,其中技术分享
技术分享
同理m=82时
技术分享
给出原高斯作对比
技术分享

高斯和链式法则
技术分享
让A是一个常数矩阵,如果技术分享那么技术分享并且技术分享

总结一下可用的高斯工具:
技术分享

最后举一个例子。
假设有一个聪明的势利眼,且有一个孩子。整个世界中,IQ用一个高斯分布N(100,152)描绘技术分享
另外有一个测试,是来侧IQ的分数,平均分是那个人的IQ。但是因为噪声的存在,所测的值可能比真实值IQ高或者低。
技术分享
假设那个人非要拉着自己的孩子去做测试,孩子得到了130分,他惊喜他孩子的IQ是属于前2%。
技术分享
某些人可能会想:这个测试肯定是不精确的,所以孩子的IQ可能是120或140,但是根据所给的结果,这个孩子很有可能是130。

最大似然IQ
技术分享
MLE是能使观测数据最有可能出现的隐藏参数的值。在本例中,技术分享
但是这与给定观测值后最有可能的参数值不相同。
我们真正想要的是:
技术分享
所求的是IQ的后验概率。
考虑上面说到的那么多高斯工具,我们打算这样计算:
技术分享
如果在给定分数的情况下必须给出最有可能的IQ,那么
技术分享
MAP是最大后验概率。

to be continue……

高斯分布

标签:数据挖掘   高斯分布   

原文地址:http://blog.csdn.net/u010182633/article/details/45694437

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!