之前介绍了haartraining程序中的cvCreateMTStumpClassifier函数,这个函数的功能是计算最优弱分类器,这篇文章介绍一下自己对haartraining中关于强分类器计算的一些理解,也就是程序中的icvCreateCARTStageClassifier函数。...
分类:
其他好文 时间:
2015-01-04 23:11:07
阅读次数:
686
前言 有人认为 AdaBoost 是最好的监督学习的方式。 某种程度上因为它是元算法,也就是说它会是几种分类器的组合。这就好比对于一个问题能够咨询多个 "专家" 的意见了。 组合的方式有多种,可能是不同分类算法的分类器,可能是同一算法在不同设置下的集成,还可以是数据集在不同部分分配给不同分类器...
分类:
编程语言 时间:
2015-01-02 16:01:58
阅读次数:
188
cvCreateMTStumpClassifier函数出自opencv中的haartraining程序,在adaboost(cvCreateTreeCascadeClassifier)的强分类器(icvCreateCARTStageClassifier)中被两次调用,该函数用于寻找最优弱分类器,或者说成计算最优haar特征。功能很明确,但是大家都知道的,opencv的代码绝大部分写的让人真心看不懂,这个函数算是haartraining中比较难以看懂的函数,局部变量达到20个之多,童鞋我也是不甘心,不甘心被这...
分类:
其他好文 时间:
2014-12-31 16:25:32
阅读次数:
255
最近项目需要,搞起了车牌,先大概做了下调研:
检测的基本方法有:
1 用边缘检测+轮廓提取+车牌特征进行车牌的检测
2 用Harr-like特征或者LBP特征+Adaboost来训练模板用于车牌的检测;还有用神经网络训练的
3 两者结合
识别的基本方法有:
1 用Tesseract.来进行训练
2 用车牌上的字符直接训练识别器
用到的库是网上的一个开源项目 ...
分类:
其他好文 时间:
2014-12-28 18:15:24
阅读次数:
413
R中的adabag包均有函数实现bagging和adaboost的分类建模(另外,ipred包中的bagging()函数可以实现bagging回归)。第一题就利用adabag包实现bagging和adaboost建模,并根据预测结果选择最优模型。
a) 为了描述这两种方式,先利用全部数据建立模型:
利用boosting()(原来的adaboost.M1()函数)建立adaboost分...
分类:
其他好文 时间:
2014-12-26 14:42:54
阅读次数:
274
关于使用OpenCV训练Adaboost的经验总结,互相交流,有不对的地方请指教!...
分类:
其他好文 时间:
2014-12-25 18:32:19
阅读次数:
143
reference: http://dataunion.org/?p=5044机器学习和深度学习学习资料比较全面的收集了机器学习的介绍文章,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learning。《机器学习经典论文/survey合集》 介绍:看题目你已经知道了是什...
分类:
其他好文 时间:
2014-12-25 00:05:56
阅读次数:
375
最近在看机器学习中adaboost(adaptive boostint)算法部分的内容,在csdn上面查找一番发现,好像没有讲的特别的详尽的,当然可能是我人品不佳,所以没有找到,为了防止同样的事情发生在其他人的身上,所以就写了这篇博文,尽量多的解释算法的推演过程更方便的大家去理解这个算法。
介绍adaboost算法之前,首先介绍一下学习算法的强弱,这个是PAC定义的:弱学习算法-...
分类:
编程语言 时间:
2014-12-24 21:38:21
阅读次数:
447
一、集成方法:1、什么是集成方法? 集成方法,又称元算法,是对算法的一种集成。集成方法可以有多种形式,可以使对不同算法的集成,也可以是同一算法在不同设置下的集成2、为什么采用集成方法? 最通俗的理解,“三个臭皮匠,顶个诸葛亮”,对于分类,综合多个分类器的分类意见进行分类3、弱分类器与强分类器二、b....
分类:
其他好文 时间:
2014-12-24 06:20:54
阅读次数:
183
关于人脸检测算法Adaboost+Haar-like的理解和相关介绍...
分类:
其他好文 时间:
2014-12-12 13:22:54
阅读次数:
407