标签:
七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com
三个部分:概率计算,参数估计,模型预测
HMM由初始概率分布π、状态转移概率分布A以及观测概率分布B确定。
Eg:以中文分词为例子
隐状态为="2",是不是终止字,是/否?(Y/N)即是不是最后一个字。
A矩阵:第一个:当前是终止字,下一个也是终止字的概率
B是当前的隐状态是终止词,观察到的终止字是什么,char
参数总结,隐状态是离散的,B是N*M矩阵,A是N*N的矩阵
齐次假设:
观测独立性假设:
如果实践中,符合这两个性质,则可以考虑是否用HMM模型
Eg: 选一个盒子,摸一个放回
该示例的各个参数
1,概率计算问题:前向-后向算法——动态规划
2, 学习问题:Baum-Welch算法(状态未知)——EM
3, 预测问题:Viterbi算法——动态规划
三种方法,直接算法,前向算法,后向算法
对所有可能的状态序列I求和,得到观测序列O的概率
直接算法,时间复杂度太高,只停留在理论阶段
前向概率-后向概率的定义
1,初值:
2,递推:对于t=1,2…T-1
3,最终
前向算法的时间复杂度是o(T*)
在某一个时刻,
求给定模型λ和观测O,在时刻t处于状态qi的概率
最有可能发生的隐状态,取一个最大值
γ的意义:
不是Viterbi算法
求给定模型λ和观测O,在时刻t处于状态qi并且时刻t+1处于状态qj的概率。
1, 若训练数据包括观测序列和状态序列,则HMM的是监督学习;
2,若训练数据只有观测序列,则HMM的学习需要使用EM算法,是非监督学习。
本质上是EM算法
A, EM的STEP1先求联合概率
以上分成了3个部分,
B, EM的STEP2-期望极大值部分
两种算法:近似算法, Viterbi算法
Viterbi算法实际是用动态规划解HMM预测问题,用DP求概率最大的路径(最优路径),这是一条路径对应一个状态序列。
定义变量:在时刻t状态为i的所有路径中,概率的最大值。
总结:实践中分词的隐状态可以有多个,eg:开头,中间,最后一个等等
七月算法-12月机器学习在线班--第十七次课笔记-隐马尔科夫模型HMM
标签:
原文地址:http://www.cnblogs.com/sweet-dew/p/5490912.html