一、朴素贝叶斯(Naïve Bayes)分类器 1.1 公式 朴素贝叶斯是一个概率分类器 文档 d 属于类别 c 的概率计算如下(多项式模型): nd是文档的长度(词条的个数) P(tk |c) 是词项tk 出现在类别c中文档的概率,即类别c文档的一元语言模型 P(tk |c) 度量的是当c是正确类...
分类:
编程语言 时间:
2015-03-07 18:23:06
阅读次数:
657
调整基于HAAR特征的AdaBoost级联分类器的物体识别的参数
1. 基于HAAR特征的AdaBoost级联分类器的物体识别问题
Paul A. Viola和Michael J. Jones在2001年发表文章“使用简单特征的提高级联检测器的快速物体检测”。同时CSDN上很多博主在07年到13年也纷纷对该方法的原理,库函数内容,XML文件的训练以及OpenCV的实现做出很多工...
分类:
编程语言 时间:
2015-03-07 14:18:19
阅读次数:
291
1 # -*- coding: utf-8 -*- 2 ''' 3 >>> c = Classy() 4 >>> c.train(['cpu', 'RAM', 'ALU', 'io', 'bridge', 'disk'], 'architecture') 5 True 6 >>> c....
分类:
编程语言 时间:
2015-03-06 23:33:42
阅读次数:
216
Boosting的思想是集成学习,把许多个弱分类器结合起来,构成一个强分类器。
首先输入原始的训练样本,得到一个弱分类器,可以知道它的正确率和错误率。计算该弱分类器的权重,如下:
然后提高错误分类样本的权重,让后面的分类器focus它们,调整样本的权重:
如果原本分类正确:
如果样本分类错误:
把新的样本输入到后面学习,重复这个过程,得到许多个弱分类器,及其分类器...
分类:
编程语言 时间:
2015-03-05 10:48:44
阅读次数:
145
朴素贝叶斯算法是寻找一个极大后验假设(MAP),即候选假设的最大后验概率。
如下:
在朴素贝叶斯分类器中,假设样本特征之间是独立的,则有:
计算每个假设的后验概率,选出最大的概率,对应的类别就是样本的分类结果。
优缺点:
对小规模的数据表现很好,适合多分类任务,适合增量式训练。当时,需要样本的特征之间独立性较高,不能有太多的相关性。对输入数据的表达形式很敏...
分类:
编程语言 时间:
2015-03-02 11:19:44
阅读次数:
297
①起源:Boosting算法Boosting算法的目的是每次基于全部数据集,通过使用同一种分类器不同的抽取参数方法(如决策树,每次都可以抽取不同的特征维度来剖分数据集)训练一些不同弱分类器(单次分类错误率>0.5),然后将其组合起来,综合评估(默认认为每个分类器权重等价)进行分类。AdaBoost算...
分类:
其他好文 时间:
2015-02-22 06:44:38
阅读次数:
174
logistic regression , 梯度下降法
分类:
其他好文 时间:
2015-02-14 18:48:35
阅读次数:
216
1.朴素贝叶斯概率模型的数学实质:独立条件概率。 朴素在这里的含义就是各影响因子概率发生独立。2.朴素贝叶斯分类器的数学模型:条件概率模型P(C|F1F2...Fn)=P(C)P(F1F2...Fn|C)/P(F1F2...Fn) (1)这里Fn代表的是独立变量C的若干个特征变量(影响因子)。我们知...
分类:
其他好文 时间:
2015-02-11 18:08:30
阅读次数:
204
#include
#include
CvHaarClassifierCascade* load_object_detector( const char* cascade_path ){
return (CvHaarClassifierCascade*)cvLoad( cascade_path );
}
void detect_and_draw_objects( IplImage*...
分类:
其他好文 时间:
2015-02-11 16:40:13
阅读次数:
133
一、算法概述1、kNN算法又称为k近邻分类(k-nearest neighbor classification)算法。最简单平庸的分类器或许是那种死记硬背式的分类器,记住全部的训练数据,对于新的数据则直接和训练数据匹配,假设存在同样属性的训练数据,则直接用它的分类来作为新数据的分类。这样的方式有一个...
分类:
编程语言 时间:
2015-02-10 21:39:16
阅读次数:
201