本文简明讲述GMM-HMM在语音识别上的原理,建模和测试过程。这篇blog只回答三个问题:
1. 什么是Hidden Markov Model?
2. GMM是神马?怎样用GMM求某一音素(phoneme)的概率?
3. 用GMM+HMM大法解决语音识别...
分类:
其他好文 时间:
2014-06-05 12:27:52
阅读次数:
369
在数据挖掘中,K-Means是一种用来计算数据聚集的算法。具体来说,K-Means要解决的问题如下图所示
凭肉眼可以看出,大致可以分为4个点群。但是怎么通过计算机找出这几个点群呢?这就是K-Means要解决的问题。
普通的K-Means算法的步骤如下
(1)随机在图中取K个种子点
(2)对图中的每个点求到这K个点的距离,假设点距离种子点最近,那么属于点群...
分类:
其他好文 时间:
2014-06-05 07:39:11
阅读次数:
733
最近论文实验进行的非常的不顺利,一方面是实验聚类的效果十分的差,另一方面是做大数据的实验对计算机的性能要求很高,非常的耗费内存,每当矩阵的维度大于3000的时候,整个计算机就像中了魔法似的,像蜗牛一样慢。这样用小数据做实验效果非常的差,用大数据做实验计算机又跑不动,搞的自己很愚昧,不知道是自己数据集的问题,还是聚类算法的问题。...
分类:
其他好文 时间:
2014-06-03 05:54:21
阅读次数:
263
k-means聚类JAVA实例,《mahout in action》第六章。...
分类:
编程语言 时间:
2014-06-03 05:40:35
阅读次数:
400
点击Open
file导入arff格式的数据,这里我导入weka内置的weather.numeric.arff数据集查看preprocess右边的三个按钮,分别是分类、聚类、关联分析,选择你需要使用的功能这里我选择分类,点击choose按钮选择要使用的分类方法这里选择j48,一种决策树算法,再点击s...
分类:
其他好文 时间:
2014-05-29 22:57:28
阅读次数:
462
K-means算法是最为经典的基于划分的聚类方法,是十大经典数据挖掘算法之一。K-means算法的基本思想是:以空间中k个点为中心进行聚类,对最靠近他们的对象归类。通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果。Mahout kmeans MapReduce实现的原理和上述的一致,值得注意的是,Mahout将数据存储在HDFS,用MapReduce做批量并行的计算。在做kmeans之前,需要将文本用Mahout向量化模块工具做向量化。计算过程主要分为三个步骤:初始中心选取,寻找簇中心,划分数...
分类:
其他好文 时间:
2014-05-26 06:00:31
阅读次数:
239
Canopy有消除孤立点的作用,而K-means在这方面却无能为力。建立canopies之后,可以删除那些包含数据点数目较少的canopy,往往这些canopy是包含孤立点的。根据canopy内点的数目,来决定聚类中心数目k,这样效果比较好。...
分类:
其他好文 时间:
2014-05-26 03:21:30
阅读次数:
321
K-means是一种聚类算法,其要求用户设定聚类个数k作为输入参数,因此,在运行此算法前,需要估计需要的簇的个数。
假设有n个点,需要聚到k个簇中。K-means算法首先从包含k个中心点的初始集合开始,即随机初始化簇的中心。随后,算法进行多次迭代处理并调整中心位置,知道达到最大迭代次数或中性收敛于固定点。
k-means聚类实例。选择三个随机点用作聚类中心(左上),map阶段(右上)将...
分类:
其他好文 时间:
2014-05-25 21:11:25
阅读次数:
275
在数据分析和数据挖掘的过程中,我们经常需要知道个体间差异的大小,进而评价个体的相似性和类别。最常见的是数据分析中的相关分析,数据挖掘中的分类和聚类算法,如K最近邻(KNN)和K均值(K-Means)。当然衡量个体差异的方法有很多,最近查阅了相关的资料,这里整理罗列下。
为了方便下面的解释和举例,先设定我们要比较X个体和Y个体间的差异,它们都包含了N个维的特征,即X=(x1, x2, x3, ...
分类:
其他好文 时间:
2014-05-25 07:01:04
阅读次数:
317
最近在网上查看用MapReduce实现的Kmeans算法,例子是不错,http://blog.csdn.net/jshayzf/article/details/22739063但注释太少了,而且参数太多,如果新手学习的话不太好理解。所以自己按照个人的理解写了一个简单的例子并添加了详细的注释。大致的步...
分类:
其他好文 时间:
2014-05-24 10:41:01
阅读次数:
315