Mixtures of Gaussian
这一讲,我们讨论利用EM (Expectation-Maximization)做概率密度的估计。假设我们有一组训练样本x(1),x(2),...x(m),因为是unsupervised的学习问题,所以我们没有任何y的信息。
我们希望利用一个联合分布p(x(i),z(i))=p(x(i)|z(i))p(z(i))来拟合这些数据, 其中z(i)~Multinomial(?) (?j?0, ∑kj=1?j=1,参数?j给出了概率p(z(i)=j)),并且 x(i)|z(i)=j~N(μj,Σj),我们让k表示z(i)可能值的个数,因此在这个模型中,每一个训练样本x(i)是由随机取某一个值的变量z(i)生成的,所以x(i)是从k个的高斯分布中的一个(由z(i)指示)提取出来的。这个称为高斯混合模型,我们也要注意到z(i)是隐含的随机变量,高斯混合模型涉及的参数是?,μ,Σ,为了估计这些变量,我们可以建立如下的表达式:
l(?,μ,Σ)=∑i=1mlogp(x(i);?,μ,Σ)=∑i=1mlog∑z(i)=1kp(x(i)|z(i);μ,Σ)p(z(i),?)
我们发现,通过求偏导数求极值的方法,无法得到这些参数的解,从上面的表达式可以看出,随机变量z(i)告诉了我们x(i)是从k个高斯分布中的其中一个生成的,如果我们知道是哪一个高斯分布,或者说如果知道z(i)的值,那我们可以利用最大似然估计的方法估计参数
?,μ,Σ,如果z(i)已知,那么上式可以写成:
l(?,μ,Σ)=∑i=1mlogp(x(i)|z(i);μ,Σ)+logp(z(i),?)
利用最大似然估计,可以求得这些参数为:
?jμjΣj=1m∑i=1m1{z(i)=j}=∑mi=11{z(i)=j}x(i)∑mi=11{z(i)=j}=∑mi=11{z(i)=j}(x(i)?μj)(x(i)?μj)T∑mi=11{z(i)=j}
从上面的表达式可以看出,如果
z(i)的值已知,那么参数
?,μ,Σ的估计与之前介绍的Gaussian discriminant analysis 模型对参数的估计是一样的,这里的
z(i)就像Gaussian discriminant analysis 模型中的输出y一样。
但是遗憾的是,我们不知道z(i)的值,所以这里我们要介绍另外一种unsupervised的学习方法,称为EM算法,EM算法主要分为两步,在E-step,我们主要对z(i)的值做猜测,在M-step,我们在E-step假设的基础上,利用最大似然估计求参数?,μ,Σ,算法主要流程如下:
Repeat until convergence {
E-step: 对于每一个i,j,设置:
w(i)j:=p(z(i)=j|x(i);?,μ,Σ)
M-step: 跟新如下参数:
?j:=1m∑i=1mw(i)j
μj:=∑mi=1w(i)jx(i)∑mi=1w(i)j
Σj:=∑mi=1w(i)j(x(i)?μj)(x(i)?μj)T∑mi=1w(i)j
}
在E-step,我们可以通过给定的x(i)和当前估计的参数计算z(i)的后验概率,利用贝叶斯估计,我们可以得到:
p(z(i)=j|x(i);?,μ,Σ)=p(x(i)|z(i)=j;μ,Σ)p(z(i)=j,?)∑kl=1p(x(i)|z(i)=l;μ,Σ)p(z(i)=l,?)
这里,p(x(i)|z(i)=j;μ,Σ)通过计算一个均值为μj,协方差为Σj的高斯分布在x(i)处的概率密度得到,p(z(i)=j,?)
是由?j给出,在E-step计算的w(i)j的值,表示我们对z(i)的一种弱估计。
同样,我们也可以将M-step的参数跟新与知道z(i)确切值的参数估计的表达式进行对比,可以看出两者是一致的,只不过前面的表达式1{z(i)=j}指出了我们利用哪个高斯分布,而现在换成了w(i)j。
EM 算法同样会让人联想起k均值算法,k均值是硬聚类,将样本聚到某一类里,而EM算法是弱聚类,样本所属的高斯分布由w(i)j估计。
参考来源:
Andrew Ng, “Machine Learning”, Stanford University.