标签:就是 ram red params http 缺点 partial margin 高斯分布
朴素贝叶斯算法
优点:
- 算法原理和实现简单,常用于文本分类。
- 对小规模数据表现很好,适合多分类增量式训练任务。
- 对缺失数据不太敏感。
缺点:
- 对输入数据的表达形式很敏感
- 需要计算先验概率,分类决策存在错误率
- 要求样本之间相互独立,这就是“朴素”的意思,这个限制有时很难做到,或使用者误以为符合而造成错误的结果
适用数据类型:离散型数据。
朴素贝叶斯假设:数据集属性之间是相互独立的,即独立同分布。
朴素贝叶斯的思想基础是这样的:
对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。
朴素贝叶斯共有三种模型,他们的区别在于计算条件概率的公式不同:
- 高斯朴素贝叶斯 – 用于符合高斯分布(正态分布)的连续样本数据的分类
- 多项式朴素贝叶斯 – 我们已经介绍的内容就是多项式朴素贝叶斯模型
- 伯努利朴素贝叶斯 – 每个特征的取值为0或1,即计算特征是否存在的概率,他是唯一将样本中不存在的特征也引入计算概率的朴素贝叶斯模型
这三个类适用的分类场景各不相同,一般来说,如果样本特征的分布大部分是连续值,使用GaussianNB会比较好。如果如果样本特征的分大部分是多元离散值,使用MultinomialNB比较合适。而如果样本特征是二元离散值或者很稀疏的多元离散值,应该使用BernoulliNB。
使用 sklearn 实现朴素贝叶斯算法
sklearn 提供了朴素贝叶斯算法的实现类,用于多项模型
sklearn.naive_bayes.MultinomialNB
(alpha=1.0, fit_prior=True, class_prior=None)
下面的列表中,我们将分类数称为 nc,将特征数称为 nf。
构造参数
sklearn.naive_bayes.MultinomialNB 类构造参数
类方法
fit(X, y[, sample_weight]) – 训练朴素贝叶斯模型
get_params([deep]) – 获取参数
set_params(**params) – 设置参数
partial_fit(X, y[, classes, sample_weight]) – 部分样本上的增量拟合
predict(X) – 预测
predict_log_proba(X) – 返回测试向量X的对数概率估计
predict_proba(X) – 返回测试向量X的概率估计
score(X, y[, sample_weight]) – 返回模型的平均精度
原文链接:https://blog.csdn.net/DILIGENT203/article/details/83934809
朴素贝叶斯算法(python)
标签:就是 ram red params http 缺点 partial margin 高斯分布
原文地址:https://www.cnblogs.com/xiao02fang/p/12712008.html