一:HMM解码问题
(1)编程深处无非就是算法和结构,以及各种架构和版本的管理(如Git管理),因此作为程序员算法这一关是绕不过去的;
(2)关于算法,个人比较崇尚的一本书是《算法导论》和ACM实战系类的算法培训;
(3)对于自然语言处理领域或者部分机械学习领域的算法,HMM模型是非常经典的算法之一,非常适合初学者学习和研究;
(4)HMM模型μ=(A,B,π),的状态是不可见...
分类:
其他好文 时间:
2015-01-19 10:53:05
阅读次数:
234
中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。其基本实现原理有三点:基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合对于未登录词,采用了基于汉字成词能力的HMM模型,使用了...
分类:
编程语言 时间:
2015-01-17 15:11:28
阅读次数:
183
“(二)杂项准备"之后,我们就已经训练了一个hmm模型了——“hmm0”。接下来,我们将以“hmm0”作为基础,一路训练到“hmm7"。1、从“hmm0"训练到"hmm3":执行以下3条命令:以hmm0为基础,生成hmm1HERest -C ./config/config_color -I ./la...
分类:
其他好文 时间:
2014-12-27 15:03:21
阅读次数:
179
RT,NLP实验二。音字转换,其中用到的思想比较基本、比较老。
1.首先统计unigram和bigram的频数
2.词作为状态集,音作为观测序列。
3.计算转移矩阵概率和发射矩阵概率,建立HMM模型
4.给定HMM模型和观测序列,采用viterbi算法动态规划解码。
viterbi.py
# -*- coding: cp936 -*-
"""
viterbi.py
au...
分类:
其他好文 时间:
2014-12-13 15:13:29
阅读次数:
256
自己根据算法编写了两个简单的matlab代码,应用于例子中的数据取得了正确的解,这里并没有考虑速度优化的问题,请大家不吝指教:1.模型评估HMM模型如下,试根据前向算法计算产生观察符号序列O={ABAB}的概率。状态转移概率矩阵a = [0.4 0.6 0 ; 0 0.8 0.2; 0...
分类:
其他好文 时间:
2014-12-03 23:00:28
阅读次数:
263
命名实体识别中最难的部分当属实体机构名了,这是因为机构名的组成成分十分复杂,可以是人名、地名、序数词、企业字号甚至是上级机构名。本文介绍一种基于角色标注的层叠HMM模型下中文机构名识别方法。目前代码已整合到HanLP中,即将开源。原理基本原理请参考《实战HMM-Viterbi角色标注地名识别》,不再...
分类:
其他好文 时间:
2014-11-18 23:49:39
阅读次数:
328
第一部分 引言
关于隐马尔柯夫模型的详细内容在此就不详细介绍了,介绍HMM模型的文章很多,请读者自行去学习。二阶隐马尔柯夫模型解决问题有两个假设:其一是当前的状态仅与它前面相邻的状态有关;其二是状态转换和从某个状态发射某个观察符号的概率与时间t无关(即不动性假设)。HMM是在这两个假设的前提下解决各种各样的问题的。
对于第二个假设,我们不去讨论它。现在来看第一...
分类:
其他好文 时间:
2014-08-01 20:02:22
阅读次数:
372
上一篇讨论了HMM的基本概念和一些性质,HMM在现实中还是比较常见的,因此也带来一了一系列的HMM应用问题。HMM应用主要面向三个方面:预测、解码和学习。这篇主要讨论预测。简单来说,预测就是给定HMM,和一个观察得到的可观察状态序列,求出通过HMM得到这个序列的概率是多少,这也是一般机器学习等领域中...
分类:
其他好文 时间:
2014-07-16 21:43:46
阅读次数:
218
一直想写点关于数学方面的blog,这对于数据挖掘分析,NLP处理等都有着比较重要的作用,之前在CSDN上想写点HMM方面的文章,一直没写成,最近几天终于抽点时间完成了HMM的文章,加以整理,遂有这个系列文章 首先是对HMM模型的介绍。 传统的马尔可夫模型(Markov Model)主要描述了...
分类:
其他好文 时间:
2014-07-16 21:43:13
阅读次数:
230
通过前几时断续的学习,发现自己对HMM模型的了解还只停留在皮毛,导致在学习CRF模型并将其与最大熵模型、HMM、MEMM做比较时感觉很吃力,所以又花了两天时间使劲看了遍HMM,发现了解得确实深刻了很多,现小结一下,争取把看过的知识变成自己的,特别感谢52nlp网站http://www.52nlp.c...
分类:
其他好文 时间:
2014-06-19 06:44:30
阅读次数:
387