基于概率统计的PLSA模型,并且用EM算法学习模型参数。PLSA的概率图模型如下
其中D代表文档,Z代表隐含类别或者主题,W为观察到的单词,表示单词出现在文档的概率,表示文档中出现主题下的单词的概率,给定主题出现单词的概率。并且每个主题在所有词项上服从Multinomial
分布,每个文档在所有主题上服从Multinomial 分布。整个文档的生成过程是这样的:
(1) 以的概率选中文...
分类:
其他好文 时间:
2015-01-09 22:26:13
阅读次数:
347
由于图像分割中经常用到MRF,条件随机场,主要介绍一下Probabilistic Graph Models 概率图模型和MRF的一些基础知识...
分类:
其他好文 时间:
2014-11-29 21:43:33
阅读次数:
260
概率分布(Distributions)如图1所看到的,这是最简单的联合分布案例,姑且称之为学生模型。图1当中包括3个变量,各自是:I(学生智力,有0和1两个状态)、D(试卷难度,有0和1两个状态)、G(成绩等级,有1、2、3三个状态)。表中就是概率的联合分布了,表中随便去掉全部包括某个值的行,就能对...
分类:
其他好文 时间:
2014-10-12 17:14:48
阅读次数:
278
模板模型(Template Models)主要包括模板变量(TemplateVariables)和语言(Language)。
模板模型可以应用于无限大的贝叶斯网络;
模板变量是被多次复用的变量:
如:地点(时间)、基因型(人物)、标签(像素)、难度(课程),等等。
语言用来描述模板变量如何从模板中继承依赖关系。
语言有很多种,各种语言都有各种应用条件,从而构造出大...
分类:
其他好文 时间:
2014-09-03 21:20:57
阅读次数:
609
我们依旧使用“学生网络”作为样例,如图1。图1首先给出因果判断(Causal Reasoning)的直觉解释。能够算出来即学生获得好的推荐信的概率大约是0.5.但假设我们知道了学生的智商比較低,那么拿到好推荐信的概率就下降了:进一步,假设又同一时候知道了考试的难度非常低,那么他拿到好的推荐信得概率又...
分类:
其他好文 时间:
2014-07-19 00:11:24
阅读次数:
310
之前忘记强调了一个重要区别:条件概率链式法则和贝叶斯网络链式法则的区别
条件概率链式法则
贝叶斯网络链式法则,如图1
图1
乍一看很容易觉得贝叶斯网络链式法则不就是大家以前学的链式法则么,其实不然,后面详述。
上一讲谈到了概率分布的因式分解
可以看到条件概率的独立性可以直接从概率分布表达式看出来。
我们已经用概率图模型把...
分类:
其他好文 时间:
2014-05-20 15:22:39
阅读次数:
250
我们依然使用“学生网络”作为例子,如图1。
图1
首先给出因果推断(Causal Reasoning)的直觉解释。
可以算出来
即学生获得好的推荐信的概率大约是0.5.
但如果我们知道了学生的智商比较低,那么拿到好推荐信的概率就下降了:
进一步,如果又同时知道了考试的难度很低,那么他拿到好的推荐信得概率又上升了,甚至还能超过最初的概率:
上述这个...
分类:
其他好文 时间:
2014-05-18 05:31:10
阅读次数:
324
概率分布(Distributions)
如图1所示,这是最简单的联合分布案例,姑且称之为学生模型。
图1
其中包含3个变量,分别是:I(学生智力,有0和1两个状态)、D(试卷难度,有0和1两个状态)、G(成绩等级,有1、2、3三个状态)。
表中就是概率的联合分布了,表中随便去掉所有包含某个值的行,就能对分布表进行缩减。
例如可以去掉所有G不为1的行,这样就只剩下了1、4、...
分类:
其他好文 时间:
2014-05-16 01:25:00
阅读次数:
331
本文根据Daphne Koller的课程整理。
PDM(ProbabilisticGraphiccal Models)
称为概率图模型。下面分别说明3个词对应的意义。
概率
-给出了不确定性的明确量度。
-给出了根据不确定性进行推断的有力工具。
-利用数据结构,建立了进行学习的方法,解决十分大规模的问题。
图
这里主要用到2种概率图,用于表示依赖关系。如图1所示...
分类:
其他好文 时间:
2014-05-15 13:00:48
阅读次数:
295