标签:draw color post 关系 括号 pst 最优 有用 ...
EM(Expectation Maximization Algorithm)算法即期望最大化算法。这个名字起的很理科,就是把算法中两个步骤的名称放到名字里,一个E步计算期望,一个M步计算最大化,然后放到名字里就OK。
EM算法是一种迭代算法,是1977年由Demspster等人总结提出,用于有隐含变量的概率模型参数的极大似然估计,或极大后验概率估计。这里可以注意下,EM算法是针对于有隐含变量的问题,而且类似极大似然估计,也就是原有的极大似然估计的方法解决不了具有隐含变量的问题,所以才产生了EM算法。也就是说如果 概率模型的变量都是观测变量,那么给定数据可以直接用极大似然腹肌法或者贝叶斯估计法来估计模型参数。(EM算法是初值敏感的,而且EM算法不能保证找到全局最优解。)
起初了解此算法的时候,很多问题萦绕心头,却总是看不太懂,很多介绍也都有自己的理解和侧重点,那么我就得写一个自己的版本,首先我遇到的问题大致如下(不断补充中),如果你遇到的问题跟我相仿,不妨看下这篇博客:
在各种理论知识的介绍中,例子总是那么的平易近人,我们就从李航老师书中的例子(三硬币模型)的丰富版出发:
假设有3枚硬币,分别记作A,B,C.这些硬币正面出现的概率分别为$\pi, p, q$.接下来我们进行一个实验:先掷硬币A,并根据其结果选出硬币B或者C,正面选择硬币B,反面选择硬币C;然后掷选出来的硬币(B或者C),记录掷出来的结果,正面记作1,掷出反面记作0;独立重复10次实验(这里也可以泛化为重复n次实验),得到的结果如下:
$$1,1,0,1,0,0,1,0,1,1$$
于是我们有个问题需要解决,现在只给你结果序列,例如上面的$1,1,0,1,0,0,1,0,1,1$,再告诉你上述规则,而不能观测掷硬币的过程,让你去估计三枚硬币正面出现的概率。也就是告诉你,我是这样抛硬币的,结果给你看,让你求$\pi, p, q$的具体值是多少。例如你可以根据自己的经验瞎猜说三枚硬币都是均匀的,即$\pi=0.5, p=0.5, q=0.5$。这当然没问题,但是你没有用上述给你的结果数据(01序列),也许用上这个数据,然后根据概率知识,我们能猜的更准。那么我们就需要用到EM算法,来个更加精准的版本了。
我们先介绍下所用到的变量的物理意义:用$y$表示观测变量,也就是上述观测结果中的0或者1,用$\theta = (\pi, p, q)$表示所要求的参数;随机变量z表示隐变量,表示没有观测到的掷硬币A的结果。也就是我们知道y到底是等于0还是1,而不知道此时z是0还是1(正面还是反面)。所以此时某一次y出现0或者1的概率可以表示为:
$$P(y|\theta)=\sum_z{P(y,z|\theta)}=\color{blue}{\sum_z}{P(z|\theta)P(y|z,\theta)}=\pi p^y(1-p)^{1-y}\color{red}+(1-\pi)q^y(1-q)^{1-y} \tag{1}$$
再来解释下这个式子具体表示了什么,简单一句话来说应该就是用全概率公式,计算了在$\theta$这些参数的情况(条件)下,和随机变量z的各种情况下(累和),y出现的概率$P(y|\theta)$。例如,我们看序列的第一个值为1(即y=1),那么y=1出现是由两种情况的(即两种情况下的概率之和):①当掷硬币A为正面,选择硬币B,掷硬币B出现正面;②当掷硬币A为反面,选择硬币C,掷硬币C出现正面。这也就是我们看不到的掷硬币的过程,也就是隐含的变量。那这两种情况相加就对应上述公式中对随机变量z蓝色的求和符号和后面红色的加号的解释。当y=1时,我们重写下上述公式如下:
$$P(y=1|\theta)=\sum_z{P(y=1,z|\theta)}=\color{blue}{\sum_z}{P(z|\theta)P(y=1|z,\theta)} = \pi p + (1-\pi)q \tag{2}$$
到现在,其实我们只是理解了一个与最后观测结果有关系的一个概率公式,而且还是特例。接下来我们要加速了...
我们将观测数据表示为$Y=(Y_1,Y_2,...,Y_n)^T$,未观测的数据表示为$Z=(Z_1,Z_2,...,Z_n)^T$,所以观测数据的似然函数我们可以表示为:
$$P(Y|\theta)=\sum_Z{P(Y,Z|\theta)}=\sum_Z{P(Z|\theta)P(Y|Z,\theta)} \tag{3}$$
这里其实就是Y的联合概率,即$P(Y)=P(Y=Y_1)*P(Y=Y_2)*...*P(Y=Y_n)$,这里故意把乘号(*)写出来了(转变为下面式子的累积符号)。上式也就是对于每一种$P(Y=Y_i)$都求了对Z的全概率,所以上式可以变为:
$$P(Y|\theta)=\prod_{j=1}^{n}[\pi p^{y_i}(1-p)^{1-y_i}+(1-\pi)q^{y_i}(1-q)^{1-y_i}] \tag{4}$$
也就相当于,我们现在算了一个出现当前观测结果的概率$P(Y|\theta)$,那么当前结果既然出现了,就证明存在即合理的,要安排一组参数$\theta$使得现在的观测结果出现的概率最大,即:
$$\hat{\theta}=arg{max}_{\theta}logP(Y|\theta) \tag{5}$$
哈,目标有了,接下来就是怎么求了,然而这个问题是没有解析解的,只有通过迭代的方法求解。好像就是说的EM算法诶,那EM算法怎么求得这个模型的参数呢?我们接着来看!!!
一般来说,用Y表示观测随机变量的数据,Z表示隐随机变量的数据。Y和Z合在一起称为完全数据,观测数据Y又称为不完全数据。假设给了观测数据Y,其概率分布式$P(Y|\theta)$,其中$\theta$是需要估计的模型参数,那么不完全数据的似然函数是$P(Y|\theta)$,对数似然函数是$L(\theta)=logP(Y|\theta)$;假设Y和Z的联合概率是$P(Y,Z|\theta)$,那么完全数据的对数似然函数是$logP(Y,Z|\theta)$。
其实一直没清晰的了解这里为什么不直接按照公式(5)求最大值,只是因为$logP(Y|\theta)$并不是独立存在的,而是其中有隐含变量Z?例如在隐马尔可夫的模型训练问题中(可以看博文),海藻的例子中,我们观测的是海藻序列$O={dry,damp,soggy}$,但是明显是天气的因素决定性的影响了这种显式的状态,因此对海藻进行建模时候,就把隐含的天气因素考虑进去;又或者在上述三硬币模型中,每组显式的数据,我们并不清楚是投掷的硬币B还是硬币C;从而遇到信息缺失的情况,就会导致我们无法单纯的用极大似然估计来求得解析解。这应该就是EM创新的点吧。
EM算法首先选取参数的初值$\theta^{(0)}=(\pi^{(0)},p^{(0)},q^{(0)})$,初值可以凭经验指定也可以任意设置,但是我们知道EM算法是初值敏感的,之后我们会看到到底影响多少。设置完初值后,就可以经过下面的步骤进行迭代计算参数的估计值,直至收敛为止。第i次的迭代参数的估计值为$\theta^{(i)}=(\pi^{(i)},p^{(i)},q^{(i)})$,那么第i+1次的迭代如下:(这里不懂没关系,我们会稍微继续解释一下)
E步:计算模型擦书下观测数据来自掷硬币B的概率:
$$\mu^{(i+1)}=\frac{\pi^{(i)} {p^{(i)}}^{y_i}(1-p^{(i)})^{1-y_i}}{\pi^{(i)} {p^{(i)}}^{y_i}(1-p^{(i)})^{1-y_i}+(1-\pi^{(i)}){q^{(i)}}^{y_i}(1-q^{(i)})^{1-y_i}} \tag{6}$$
M步:计算模型参数的新估值
$$\pi^{(i+1)}=\frac{1}{n}\sum_{j=1}^{n}\mu^{(i+1)} \tag{7}$$
$$p^{(i+1)}=\frac{\sum_{j=1}^{n}\mu^{(i+1)}y_j}{\sum_{j=1}^{n}\mu^{(i+1)}} \tag{8}$$
$$q^{(i+1)}=\frac{\sum_{j=1}^{n}(1-\mu^{(i+1)})y_j}{\sum_{j=1}^{n}(1-\mu^{(i+1)})} \tag{9}$$
看到这里,我有点懵圈,刚才还好好的,怎么经过这一迭代就这样了,内心是这样的:
[图来自网络,侵删]
其实上面只是简单介绍了下求解问题的目标函数的具体来源,而开始解这个问题时,用到EM算法部分就很快结束了,有耐心的同学可能一步一步把中间的理解步骤补全,也能跨过这个大步子,我...能怎么办...。我们在这里稍微解释下这里是如何添细节的吧:
在E步的公式(6)中,我们计算了来自的掷硬币B的概率,为什么要算这个???
其实到这里,希望你有了新问题,就是你这两来回收敛我可以接受,但是这里不就是多了一个隐含变量么?管他那么多干什么,什么迭代、收敛,我可是学过偏导的人,给它们来个偏导套餐,统统求导,令导数等于0,就是干!那么你真是对力量一无所知!我们来解释下为啥要迭代求解,有什么困难:
其实我们要求的目标函数是这样一个形式,为了清晰,我们加了中括号和颜色,来清晰的显示log函数的范围:
$$L(\theta) =logP(Y|\theta) =log\sum_Z{logP(Y,Z|\theta)} =log(\sum_Z{P(Y|Z,\theta)P(Z|\theta)}) \tag{10}$$
可以看到,这里是log中是函数的和的形式,求起来很复杂,不信你想象一下$f(x)=log(f_1(x)+f_2(x)+...+f_n(x))$导数。嗯!就是因为这个!
之后,我们重新重新审视下EM算法,我们在下一节EM算法之二--算法简介继续来讲。
标签:draw color post 关系 括号 pst 最优 有用 ...
原文地址:https://www.cnblogs.com/datasnail/p/9545331.html