思路:
之前的线性回归都是根据特征值服从的分布猜想结果,生成算法是根据结果猜想特征值的分布。
贝叶斯公式:
GDA高斯分类器:模型:写成表达式的形式:
分离效果图:
推理:
原理:根据上述表达式的形式和最大似然原理,我们要求出这两个高斯分布,使给出的case最大限度的符合。
写成表达式的形式:原因:为什么要求p(y|x)p(y|x)的最大似然:因为我们是要求给出XX后预测YY,因此我们要求给出x下y...
分类:
编程语言 时间:
2015-06-27 09:56:38
阅读次数:
135
问题:将二元正态分布的概率密度函数改写成矩阵-向量形式改写:
设(X1,X2)(X_1, X_2)是二元正态变量,其密度函数为:
即:(X1,X2)(X_1, X_2) ~ N(μ1,μ2,σ21,σ22,ρ)N(\mu_1, \mu_2, \sigma_1^2,\sigma_2^2,\rho)
其中:ρ\rho是相关系数
令:x=(x1,x2)Tx = (x_1, x_2)^T
μ=(μ...
分类:
其他好文 时间:
2015-06-21 15:49:26
阅读次数:
278
在读2009年ICCV的paper中遇到几次 Gaussian distribution(高斯分布),不明觉厉,就查了写来总结下:
高斯分布(Gaussian distribution),其实就是正态分布(Normal distribution),瞬间就不黑线了,概率论中学过的。
一、先粘一段高斯分布的历史:
正态分布是最重要的一种概率分布。正态分布概念是由德国的数学家和...
分类:
其他好文 时间:
2015-06-13 17:18:17
阅读次数:
156
1. 高斯分布 pdf = 1/√2\phi \thea exp(-(x-u)^2/2\thea^2)2. x1 ~ N(u1,v1) x2 ~ N(u2,v2) E(x1 + x2) = u1 + u2 Var(x1 + x2) = E((x1+x2)^2) - E(x1+x2)^2 ...
分类:
其他好文 时间:
2015-06-09 23:15:55
阅读次数:
133
问题描述信道H长度L=3,H=(h0,h1,h2),其中h0=,h1=,h2=;基本信号类型x=10或-10,一个完整的信号序列为X=(x0,x1,x2,...,x9);噪声W=(w0,w1,w2,...,w11)是满足高斯分布的(0,1)范围内的随机数;按照Y=H·X+W公式转换得到一个完整的信号序列Y=(y0,y1,y2,...,y11)。信号接收端..
分类:
编程语言 时间:
2015-05-25 06:16:41
阅读次数:
155
问题描述信道H长度L=3,H = (h0,h1,h2),其中h0=,h1=,h2=; 基本信号类型 x =10或-10,一个完整的信号序列为X = (x0,x1,x2,...,x9);噪声W = (w0,w1,w2,...,w11)是满足高斯分布的(0,1)范围内的随机数;按照Y = H·X + W...
分类:
编程语言 时间:
2015-05-24 23:06:08
阅读次数:
335
介绍在这篇文章中,我将展示如何绘制二维正态分布数据的误差椭圆,又名置信椭圆。误差椭圆代表高斯分布的等值轮廓线,并允许可视化一个2D置信区间。下图显示了一组二维正态分布数据样本的95%置信椭圆。这个置信椭圆定义的区域包含了95%的样本,这些样本可以从潜在高斯分布中得到。
在接下来的章节中,我们将讨论如何获得不同置信度(如99%置信区间)的置信椭圆,我们将展示如何用Matlab或C ++代码绘制这些椭...
分类:
其他好文 时间:
2015-05-23 08:49:26
阅读次数:
8927
这段时间有个卡尔曼滤波的作业,正好在刑波(Eric Xing)的概率图模型课程上也谈到了这一点,所以从这个角度来阐述卡尔曼滤波,同时介绍其中用到的条件高斯分布的推导过程。这一推导过程来自于《模式识别与机器学习》(PRML)。1. 条件高斯分布 本节要解决的问题是已知,,计算。 按照的划分方法,可以将...
分类:
其他好文 时间:
2015-05-19 22:30:17
阅读次数:
331
本系列文章允许转载,转载请保留全文!【请先阅读】【说明&总目录】http://www.cnblogs.com/tbcaaa8/p/4415055.html1. 指数分布族简介之前的文章分别介绍了因变量服从高斯分布、伯努利分布、泊松分布、多项分布时,与之对应的回归模型,本文章将阐释这些模型的共同点,并...
分类:
系统相关 时间:
2015-05-16 20:13:32
阅读次数:
232
数据挖掘中的高斯分布高斯分布,无论是单变量还是多元变量,在统计数据挖掘中是非常有用的,包括一些底层数据假设是高度非高斯的数据挖掘模型。我们需要好好了解多元高斯。为什么我们应该关注它
高斯像橘子汁和阳光一样是自然存在的
我们需要它来理解贝叶斯最优分类器
我们需要它来理解回归
我们需要它来理解神经网络
我们需要它来理解混合模型
……
PDF(概率密度函数)的熵
分布的熵越大,预测就越困难,压缩就越困难...
分类:
其他好文 时间:
2015-05-13 19:56:26
阅读次数:
336