码迷,mamicode.com
首页 > 其他好文 > 详细

pgm12

时间:2014-06-08 23:26:19      阅读:386      评论:0      收藏:0      [点我收藏+]

标签:c   style   class   blog   a   http   

作为 inference 部分的小结,我们这里对 machine learning 里面常见的三个 model 的 inference 问题进行整理,当然很幸运的是他们都存在 tractable 的算法是的我们避免了烦人的 approximate inference。

HMM

常意所说的 HMM 是对离散状态、离散观测情形下的一种 generative model,它包括

  • 状态的先验分布 bubuko.com,布布扣(在下面的推导中我们可以将其藏在转移概率中)
  • 转移状态 bubuko.com,布布扣,这是对 bubuko.com,布布扣 的分布
  • 发射概率 bubuko.com,布布扣,这是对 bubuko.com,布布扣 的分布

这个模型的潜台词是

  • Markovian property:bubuko.com,布布扣
  • time-invariance:bubuko.com,布布扣

因此联合分布的概率为

bubuko.com,布布扣

其中 bubuko.com,布布扣 故可省略。下面我们分别讨论这上面的 message passing、belief update 和一些常见的 inference 问题。

message passing 需要建立一个 cluster graph,当然实际也是一个 clique tree,这个图上的顶点包括 bubuko.com,布布扣,这是将 bubuko.com,布布扣bubuko.com,布布扣bubuko.com,布布扣 绑在一起,bubuko.com,布布扣;则每个对应的 bubuko.com,布布扣。于是可以计算前向的消息,

bubuko.com,布布扣

其中 bubuko.com,布布扣,后向消息为

bubuko.com,布布扣

其中 bubuko.com,布布扣。如果仔细分析一下这些消息,我们就会发现,前向消息其实是边际分布

bubuko.com,布布扣

我们可以继续代入后面的消息里面,

bubuko.com,布布扣

如果观测是给定的,即 bubuko.com,布布扣 已知,这获得的将是 bubuko.com,布布扣。对后向消息而言,

bubuko.com,布布扣

代入后面的消息有

bubuko.com,布布扣

都是常数。如果 bubuko.com,布布扣 是已知的,这将获得 bubuko.com,布布扣

对于 MAP 类型的 query,我们需要使用 max-product 算法,此时的前向消息为(bubuko.com,布布扣

bubuko.com,布布扣

bubuko.com,布布扣

后向消息为

bubuko.com,布布扣

bubuko.com,布布扣

对 belief update 来说,belief 是 bubuko.com,布布扣 上的边际分布

bubuko.com,布布扣

而对应的 belief update 为

bubuko.com,布布扣

类似可以导出 MAP 类型下的形式。这样,对于 filtering 来说 bubuko.com,布布扣 可以将前向消息归一化,而 prediction 使用的概率

bubuko.com,布布扣

是归一化后的值。smoothing 需要求 bubuko.com,布布扣,本质上就是 bubuko.com,布布扣,这直接使用 MAP 类型两种 message 就能给出两种算法。

LDS

LDS 和 HMM 具有类似的图结构,但是对应的状态和观测均为连续分布,因而常使用 Gaussian 建模。

bubuko.com,布布扣

其中,

bubuko.com,布布扣

另一种描述这种关系的形式是使用 additive noise,

bubuko.com,布布扣

使用的 clique tree 与前面一致,前向消息为

bubuko.com,布布扣

bubuko.com,布布扣

其中 bubuko.com,布布扣 and bubuko.com,布布扣,后向消息也均为 1。对 MAP 类型的 query,前向消息为

bubuko.com,布布扣

关于 bubuko.com,布布扣 的优化问题是

bubuko.com,布布扣

其解为

bubuko.com,布布扣

这是 bubuko.com,布布扣 的线性函数,因此大致的求解过程是,从 bubuko.com,布布扣 的二次方程中解出 bubuko.com,布布扣 得到一个使用 bubuko.com,布布扣 的线性函数表示的关系,代入后得到 bubuko.com,布布扣 的消息,这仍然是一个二次函数,向后代入即可。最后获得的 bubuko.com,布布扣 的方程解出 bubuko.com,布布扣 后进行回代就解出了其他的隐变量。

beliefs 为

bubuko.com,布布扣

bubuko.com,布布扣

类似有对应 belief。

对 filtering 问题,给定 bubuko.com,布布扣 后计算 bubuko.com,布布扣 可使用前向消息,

bubuko.com,布布扣

其中,

bubuko.com,布布扣

bubuko.com,布布扣

其中

bubuko.com,布布扣

bubuko.com,布布扣bubuko.com,布布扣 则以上计算可用统一的形式表述。

对 prediction 问题,给定 bubuko.com,布布扣bubuko.com,布布扣 可使用 filtering 的结果计算

bubuko.com,布布扣

MEMM

我们直接对 bubuko.com,布布扣 使用 ME 建模,但是为了引入上下文关系,我们可以将这个 ME 弄成多个 bubuko.com,布布扣,这也就是说前面一个状态决定了后面使用的 ME 的参数。这样似然函数为

bubuko.com,布布扣

这里的假定有,

  • Markovian 性:bubuko.com,布布扣
  • ME 假定:bubuko.com,布布扣

我们使用与 HMM 一致的 cluster graph,前向消息为

bubuko.com,布布扣

后向消息为

bubuko.com,布布扣

max-product message passing 仅仅需要将求和换成 max。belief propagation 中 belief 为

bubuko.com,布布扣

且 belief update 为

bubuko.com,布布扣

其 filtering、prediction 和 smoothing 算法与 HMM 完全一样。

CRF

其假设为

  • Markovian 性,与 MEMM 类似;
  • invariant factor:对每个 transition,我们引入一个 log-linear 表示,bubuko.com,布布扣,其中 bubuko.com,布布扣 是所谓的 feature;

类似前面可以定义消息、belief 等。如果需要计算 log-likelihood,我们需要求 partition function 的函数值,这需要使用前向消息

bubuko.com,布布扣

就能避免指数求和项,而计算梯度的时候,

bubuko.com,布布扣

其中后者需要 bubuko.com,布布扣,这正是 belief。

——————
And Sarah saw the son of Hagar the Egyptian, which she had born to Abraham, mocking.

pgm12,布布扣,bubuko.com

pgm12

标签:c   style   class   blog   a   http   

原文地址:http://www.cnblogs.com/focus-ml/p/3775461.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!