我们要探讨的Haar分类器实际上是Boosting算法(提升算法)的一个应用,Haar分类器用到了Boosting算法中的AdaBoost算法,只是把AdaBoost算法训练出的强分类器进行了级联,并且在底层的特征提取中采用了高效率的矩形特征和积分图方法,这里涉及到的几个名词接下来会具体讨论。 在2 ...
分类:
其他好文 时间:
2016-09-07 10:32:37
阅读次数:
299
在网上看到一篇对从代码层面理解gbdt比较好的文章,转载记录一下: GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做 ...
分类:
其他好文 时间:
2016-08-18 14:27:12
阅读次数:
181
Bootstraping: 名字来自成语“pull up by your own bootstraps”,意思是依靠你自己的资源,称为自助法,它是一种有放回的抽样方法,它是非参数统计中一种重要的估计统计量方差进而进行区间估计的统计方法。其核心思想和基本步骤如下: (1) 采用重抽样技术从原始样本中抽 ...
分类:
其他好文 时间:
2016-08-17 17:54:50
阅读次数:
193
Boosting performance with Cython Even with my old pc (AMD Athlon II, 3GB ram), I seldom run into performance issues when running vectorized code. But ...
分类:
编程语言 时间:
2016-08-07 16:43:38
阅读次数:
216
boosting和bagging的差别: bagging中的模型是强模型,偏差低,方差高。目标是降低方差。在bagging中,每个模型的bias和variance近似相同,但是互相相关性不太高,因此一般不能降低Bias,而一定程度上能降低variance。典型的bagging是random fore ...
分类:
其他好文 时间:
2016-08-02 15:13:02
阅读次数:
817
系列 《使用sklearn进行集成学习——理论》 《使用sklearn进行集成学习——实践》 目录 1 Random Forest和Gradient Tree Boosting参数详解2 如何调参? 2.1 调参的目标:偏差和方差的协调 2.2 参数对整体模型性能的影响 2.3 一个朴实的方案:贪心 ...
分类:
其他好文 时间:
2016-07-31 20:29:54
阅读次数:
310
本文将即上一次的 基于权重的 Boosting 之后讨论 Boosting 中另一种形式 Gradient Boosting,基于权重的方法代表为 Adaboost ,在 Adaboost 中权重随着样本是否分类正确而在下一次迭代中发生改变,而 Gradient Boosting 中没有样本权重的概... ...
分类:
其他好文 时间:
2016-07-14 01:52:03
阅读次数:
123
Ensemble Learning 集成学习是组合多个模型来共同完成一个任务的方法,每个模型可以叫做基学习器,集学习器通过现有的学习算法从训练数据中训练得到,常见的如 Decision Tree 与 Neural Network ,衡量集成学习主要有两个指标: 准确性:即个体学习器要有一定的准确性,... ...
分类:
其他好文 时间:
2016-07-12 17:08:46
阅读次数:
201
在网上看到一篇对从代码层面理解gbdt比较好的文章,转载记录一下: GBDT(Gradient Boosting Decision Tree) 又 叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论 累加起 ...
分类:
其他好文 时间:
2016-07-01 22:50:34
阅读次数:
220
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com 前言: 本来上一章的结尾提到,准备写写线性分类的问题,文章都已经写得差不多了,但是突 ...
分类:
其他好文 时间:
2016-06-29 23:45:44
阅读次数:
259