码迷,mamicode.com
首页 > 其他好文 > 详细

pgm5

时间:2014-06-08 22:53:24      阅读:326      评论:0      收藏:0      [点我收藏+]

标签:c   style   class   blog   code   a   

这部分讨论 inference 里面基本的问题,即计算 bubuko.com,布布扣 这类 query,这一般可以认为等价于计算 bubuko.com,布布扣,因为我们只需要重新 normalize 一下关于 bubuko.com,布布扣 的分布就得到了需要的值,特别是像 MAP 这类 query(一般此时 bubuko.com,布布扣bubuko.com,布布扣 的补集,可以理解成为取 bubuko.com,布布扣 只需要将这里一些 sum 换成 max 即可)也可以用类似的策略来处理。这部分我们集中考虑 variable elimination 这种策略。

不过我们应该清楚的认识到 inference 问题是“很难”的。,即便是近似解。但是一般说来我们的算法不会退化到最差的情况,因此我们觉得可以接受。

精确推断是 NPC 给定一个 BN,一个其中的随机变量 bubuko.com,布布扣 和可能的取值 bubuko.com,布布扣,决定 bubuko.com,布布扣 的概率是否大于零,这个问题是 NP-complete 的。

这个证明需要:说明这是一个多项式时间可验证的(给定一个 assignement 之后我们只需要按照 factor 求乘积即可)以及找到一个 NPC 说明存在一个多项式时间的归约。这个规约可以用 3-SAT,我们将 3-SAT 里面的 propositional variable 给定一个顶点 bubuko.com,布布扣,每个从句给定一个顶点 bubuko.com,布布扣,并且将它们根据出现的关系使得 bubuko.com,布布扣bubuko.com,布布扣 的父节点,当且仅当该 variable 出现在对应从句中,且使用 deterministic CPD(导致与 3-SAT 类似的结果,即或关系)且对于 bubuko.com,布布扣 的先验我们可以取均匀分布,我们的 bubuko.com,布布扣bubuko.com,布布扣 的“与”,这样如果 3-SAT 成立当且仅当 bubuko.com,布布扣

更直接的我们可以证明计算 bubuko.com,布布扣 本身也是 #P-complete 的。很过分的事情不在于此,我们还有

任意的近似推断也是 NP-hard 我们称 bubuko.com,布布扣bubuko.com,布布扣 的绝对误差不超过 bubuko.com,布布扣 的估计,当且仅当 bubuko.com,布布扣;称 bubuko.com,布布扣bubuko.com,布布扣 的相对误差不超过 bubuko.com,布布扣 的估计,当且仅当 bubuko.com,布布扣。这两个问题都是 NP-hard 的。

那么我们怎么处理这个问题呢?其实想法很简单,很直接(既然我们怎么做都不可能做得更好)。如果没有 evidence,我们相当于计算 maginal distribution bubuko.com,布布扣,这时我们只需要去掉其他的变量就行了,比如剩余的为 bubuko.com,布布扣,我们给定了这些变量之后一个一个加掉(积掉)他们即可。怎么加呢?我们知道如果把联合分布当成是 factor 的话,我们只需要选择与当前 bubuko.com,布布扣 相关的 factor 乘起来相加,这样就得到了这些 factor 关联的其他的 bubuko.com,布布扣 组成的 factor。这提示我们我们可以从无向图的角度来考虑:对 BN 来说我们先构造它的 moral graph,这对应于每个 CPD 对应的 factor,每个 factor 自己是一个 clique。如果给定了某个顺序,依次相加过程中消掉某些变量后可能导致几个 factor 的合并,这样得到的新 factor 仍然是一个 clique,这就会导致我们增加额外的边(fill edge)。如此消除了所有其他元素后就得到了 bubuko.com,布布扣

在有 evidence 的情况下问题也并没有边困难!为什么呢?我们等价于计算 bubuko.com,布布扣,我们可以首先将 bubuko.com,布布扣 的部分替换成为对应的值,这导致我们在 reduced factor 上进行类似的计算即可。

这里面有两个核心的想法:

  • 由于某些 graph 的特殊结构,我们进行消元的时候不是所有的都会参与进来,往往参与的只是一小部分
  • 我们将中间的消元结果 cache,参与后续的消元就不必繁复的读取原先的 factor

另外如何选择合理的消元顺序也是一个有意思的问题。

为了将这个过程用算法实现,我们知道每个 factor 对应于一个 table,有关联的变量,我们需要有一个 table 的集合,通过变量获得相关 table 子集的方法,消去某个变量的方法。我们为每个 factor 建立一个类,其中包含数据区,若干个变量;每个变量有一个类,包含对应的维数,名称等信息。

1
2
3
4
5
6
7
8
9
10
struct drv { // for discrete random variables
  std::string name ;
  std::size_t n_vals ;
} ;
 
template <class RealType>
struct tbl {
  std::vector<drv*> var ;
  std::vector<RealType> data ;
} ;

这样我们建立一个 boost::bimap 用来检索(这是 pseudo code 了):

1
2
3
4
5
boost::bimap<unique<tbl*>, multi<drv*> > m ;
for (int i = 0 ; i < tbls.size () ; ++ i) {
  for (int j = 0 ; j < tbls [i].var.size () ; ++ j)
    m.insert (std::make_pair (&tbls [i], tbls[i].var [j])) ;
}

这样给定了 elimination 顺序后,如 std::vector<drv*>,有

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
boost::shared_ptr<tbl>
eliminate (const std::vector<drv*>& order) {
  // assume we have m
  std::vector<boost::shared_ptr<tbl> > aux_tbls ; // for interim factors
  for (int i = 0 ; i < order.size () ; ++ i) {
    // find in bimap all related factors
    std::pair<..., ...> ranges = m.right.find (order[i]) ;
    // call sum-product
    boost::shared_ptr<tbl> new_factor = sum_product (ranges.first, ranges.second, order[i]) ;
    // remove factors from bimap
    // ...
    // add new to bimap
    // ...
    // save it
    aux_tbls.push_back (new_factor) ;
  }
  return aux_tbls[aux_tbls.size () - 1] ;
}

这里的 sum_product 的实现大致如下

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
boost::shared_ptr<tbl>
sum_product (Iterator begin, Iterator end, drv* a) {
  boost::shared_ptr<tbl> t = new tbl () ;
  std::size_t s = 1 ;
  // add vars to t and compute size
  for (Iterator iter = begin ; iter != end ; ++ iter) {
    for (int i = 0 ; i < (*iter).var.size () ; ++ i) {
      drv* cur = (*iter).var [i] ;
      if (a != cur) {
        t.var.push_back [cur] ;
        s *= cur->n_vals ;
      }
    }
  }
  t -> data.resize (s) ;
  // building the table
  // foreach value
  {
    // compute the product from each of the input tables
    // sum up and place the sum into output table
  }
  return t ;
}

嗯大致如此了。不知道使用 metaprogramming 会不会有点好处(还是纯粹折腾?)那么很重要的一点就是我们需要理解清楚这个算法的“瓶颈”在哪里?其实很容易看出来就是我们中间产生的那个 table 里面尺寸最大的,为了填充它,我们将耗费 bubuko.com,布布扣 的代价(假定每个 r.v.s 取 bubuko.com,布布扣 个值,这个 table 是 bubuko.com,布布扣 维的),这反应出来图的性质其实是对应的 clique size – 1。如果算上 fill edge,我们称这个 graph 为某个消元序下的 induced graph,这里 bubuko.com,布布扣 其实就是最大 clique 的 size 了(我们称 bubuko.com,布布扣 为此图的 width,或者所谓 induced width)。这刻画了我们的消元算法的时间复杂度。

下面的定理告诉我们,最优消元序也不好弄 -,-b

定理 给定图,界 bubuko.com,布布扣,确定是否存在不超过 bubuko.com,布布扣 的 induced width 是 NPC。

为此一般选择的策略都是 heuristic 的,通常有

  • min-neighbors 与 weighted 版本:weight 一般是 neighbor factor 含有变量个数的乘积
  • min-fill 与 weighted 版本:每条边的 weight 是两个顶点的 weight 的乘积

注意所有的 induced graph 都是 chordal,我们可以证明每个 chordal graph 也对应着一个消元序(即不会额外引入 fill edge)。这个消元序可以使用 maximal cardinality 算法获得(每次选择 marked neighbors 最多的点,并把当前点 mark,按此顺序的逆序即可)。注意因为我们并不知道消元序,所以我们无法直接使用这个算法,而如果对于非 chordal graph 这个算法获得的结果往往不如前面的。

除了以上的策略以外,还有一种称为 conditioning 的策略(video 中并没有 cover),其解决的核心问题是消元法可能产生的 table 尺寸过大而无法放入内存。那 conditioning 的 idea 是什么呢?其实也很简单就是直接拿某些东西进行累加:

bubuko.com,布布扣

这样做的意义在于,我们只需要遍历所有可能的取值,而不必要存放其中的 factor,这样我们等价于每次用那部分 factor计算出来的一项完成结果中的一部分,然后遍历时累加最后得到结果,这明显没减少总共的计算次数。(与消元法的差异在于消元时每次都先加好了,最后再乘,所以只是顺序上的调整)这里复杂度分析也是借助对应 induced graph(没大看明白有什么用)。

在某些情况下 conditioning 可以得到加速:

  • conditioning 是从外面向里走,而消元是从里向外走(直观上来看处理连加的策略),因此很多时候我们可以借助消元简化再来做 conditioning;
  • 存在独立的部分,这时候网络就 decompose 了,conditioning 在独立部分的时候其实什么都可以不做

有了这两种基本的求解方法后,我们来看两个具体带有结构的 CPD 上如何简化。一个例子是 noisy OR,对于 OR 这类操作,简化的想法是将原因分开进行 OR 而不要一次全部 OR 起来,这样做会增大 conditioning 的代价。另一个例子是 context-specific independency,这时我们使用了 tree 或者 rule 类型的表示,这时我们就应该利用这些结构来改进 conditioning。(感觉这类型见的不多,后面有空详细看例子吧!)

——————-
Therefore Abimelech rose early in the morning, and called all his servants, and told all these things in their ears: and the men were sore afraid.

pgm5,布布扣,bubuko.com

pgm5

标签:c   style   class   blog   code   a   

原文地址:http://www.cnblogs.com/focus-ml/p/3775438.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!