标签:
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。,对于给定的训练数据集,首先基于特征条件独立假设学习输入与输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y,朴素贝叶斯方法实现简单,学习与预测的效率都很高,是一种常用的方法。
下面主要说一下朴素贝叶斯的学习方法与分类。
基本方法:
设输入空间X包含于Rn为n维向量的集合,输出空间为类标记的集合Y={c1,c2,...ck},输入空间为特征向量x属于X,输出为类标记y属于Y。X是定义在输入空间X上的随机向量,y是定义在输出空间Y上的随机变量,P(X,Y)是X,Y的联合概率分布,训练数据集为:
T={(x1,y1),(x2,y2),...(xN,yN)}
朴素贝叶斯法通过训练数据集学习联合概率分布P(X,Y)。具体地,学习以下先验概率分布及条件概率分布,先验概率分布:
P(Y=ck), k=1,2,...K.
条件概率分布:
P(X=x|Y=ck)=P(X(1)=x(1),X(2)=x(2),...X(n)=x(n)|Y=ck), k=1,2,...K.
于是学习到联合概率分布P(X,Y),朴素贝叶斯法对条件概率分布作了特征条件独立假设,由于这个较强的假设,使得
P(X=x|Y=ck)=P(X(1)=x(1),X(2)=x(2),...X(n)=x(n)|Y=ck)=联乘(j=1-j=n)P(X(j)=x(j)|Y=ck),这一假设使得朴素贝叶斯法简单了很多。
标签:
原文地址:http://www.cnblogs.com/angel1314/p/4739597.html