引文:由于之前讲过了朴素贝叶斯的理论Stanford机器学习[第五讲]-生成学习算法第四部分,同时朴素贝叶斯的算法实现也讲过了,见机器学习算法-朴素贝叶斯Python实现。那么这节课打算讲解一下朴素贝叶斯算法的具体计算流程,通过一个具体的实例来讲解。
PS:为了专注于某一个细节,本章节只抽取了视频的一部分来讲解,只讲解一个贝叶斯算法的计算流程,关于视频里面的具体内容请参考下面的视频链接。
讲解的实例是一个文本分类的例子,区分一句话是粗鲁的还是文明的,类别标签只有Yes或No,表示是粗鲁的和不是粗鲁的语句。
Words | Label |
---|---|
my name is Devin. | No |
you are stupid. | Yes |
my boyfriend is SB. | Yes |
you looks very smart,I like you very much. | No |
上面这个数据集是我随机取的,label表示的是是否粗鲁。
首先根据上面给出的数据构建出一个词库出来,如下:
【”my”,“name”,“is”,“Devin”,“you”,“are”,“stupid”,“boyfriend”,“SB”,“looks”,
“very”,“smart”,”like”,”much”】
这个词库总单词个数只有14个,相对而言比较少,这里只做个例子,单词多的情况下同样处理。
然后将每个样本映射到词库中,得到一个大的矩阵
my | name | is | Devin | you | are | stupid | boyfriend | SB | looks | very | smart | like | much | classLabel |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
0 | 0 | 0 | 0 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 |
1 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 1 |
1 | 0 | 0 | 0 | 2 | 0 | 0 | 0 | 0 | 1 | 2 | 1 | 1 | 1 | 0 |
上面是得到的一个词频矩阵,最后一栏表示的是类标号,下面通过这个词频举证来计算不同类标号下每个词发生的概率,即条件概率
实际的处理中为了防止0概率的发生,通常是将词频矩阵初始化为1,这里就不这么做了,简单化计算吧。
设几个变量:
可以根据上面的词频表计算得到:
样本中在类标签为1的单词出现的总次数p1Count=7
样本中在类标签为0的单词出现的总次数p0Count=12
让举证p1Num和p0Num分别除以p1Count和p0Count,即可以得到各自的条件概率:
条件概率求出来了,那么怎么来计算区分类别呢?
根据贝叶斯公式
因为预测一句话所属的类别,我们的
由于x有多个特征,上面分子子中的
和
的大小比较。对于分子
最后比较两个大小,如果
假设我现在要测试下面一句话:“I like you.”
则通过预测比较
可以得到结果是
[1] 机器学习实战
[2]视频链接:http://open.163.com/movie/2008/1/7/H/M6SGF6VB4_M6SGJVV7H.html
原文地址:http://blog.csdn.net/dream_angel_z/article/details/46312319