引自(机器学习实战) 简单概念 Adaboost是一种弱学习算法到强学习算法,这里的弱和强学习算法,指的当然都是分类器,首先我们需要简单介绍几个概念。 1:弱学习器:在二分情况下弱分类器的错误率会低于50%。其实任意的分类器都可以做为弱分类器,比如之前介绍的KNN、决策树、Naïve Bayes、l ...
分类:
其他好文 时间:
2016-08-03 21:55:09
阅读次数:
244
图片数据:卷积还是王道,有几个比较通用性的框架被人拿来改来改去 非图片特征数据:用分类: boost系列算法:牛逼的框架实现 xgboost AdaBoost算法针对不同的训练集训练同一个基本分类器(弱分类器),然后把这些在不同训练集上得到的分类器集合起来,构成一个更强的最终的分类器(强分类器)。理 ...
分类:
其他好文 时间:
2016-08-02 13:08:55
阅读次数:
227
MACD是一个指标,具体用法是MACD>0看涨,反之看跌,果真是这样的吗?由于所有的技术指标都基于对历史数据的统计,指标的滞后性也就难免,有时候MACD明明大于0,股价仍然跌,有时候macd小于0,股价仍然涨。 本文基于Adaboost算法提出了一种基于macd的线性阀值分类器作为若分类器,通过在限定的解空间内寻找使得错误率最小的阀值和偏置,这样做避免了训练若分类器的复杂性,经验证,这种方法有效。...
分类:
编程语言 时间:
2016-07-16 23:42:11
阅读次数:
316
本文将即上一次的 基于权重的 Boosting 之后讨论 Boosting 中另一种形式 Gradient Boosting,基于权重的方法代表为 Adaboost ,在 Adaboost 中权重随着样本是否分类正确而在下一次迭代中发生改变,而 Gradient Boosting 中没有样本权重的概... ...
分类:
其他好文 时间:
2016-07-14 01:52:03
阅读次数:
123
原题,以不剪枝的决策树作为基学习器,对西瓜数据集实现Adaboost分类。 运行结果如下: 分类结果训练结果相当好。当然也测试了最大深度为1的决策树作为基学习器,结果如下: ...
分类:
其他好文 时间:
2016-07-05 22:16:09
阅读次数:
714
《Brief History of Machine Learning》 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learning. 《Deep Learning in Neural Networks: An Over ...
分类:
系统相关 时间:
2016-06-30 15:59:41
阅读次数:
257
概念AdaBoost是一种级联算法模型,即把几个弱分类器级联到一起去处理同一个分类问题。也就是“三个臭皮匠顶一个诸葛亮”的道理。例如一个专家作出的判定往往没有几个专家一起作出的判定更准确。一种情况:如果每个专家都仅有一票的权利,采用投票机制的方法属于...
分类:
编程语言 时间:
2016-06-21 06:44:21
阅读次数:
294
基本概念Adaboost算法,将多个弱分类器,组合成强分类器。
AdaBoost,是英文”Adaptive Boosting“(自适应增强)的缩写,由Yoav Freund和Robert Schapire在1995年提出。
它的自适应在于:前一个弱分类器分错的样本的权值(样本对应的权值)会得到加强,权值更新后的样本再次被用来训练下一个新的弱分类器。在每轮训练中,用总体(样本总体)训练新的弱分类器...
分类:
编程语言 时间:
2016-06-03 19:15:28
阅读次数:
399
在这篇文章中,我会详细地介绍Bagging、随机森林和AdaBoost算法的实现,并比较它们之间的优缺点,并用scikit-learn分别实现了这3种算法来拟合Wine数据集。全篇文章伴随着实例,由浅入深,看过这篇文章以后,相信大家一定对ensemble的这些方法有了很清晰地了解。...
分类:
其他好文 时间:
2016-05-27 12:52:54
阅读次数:
856
给你这些水果图片,告诉你哪些是苹果。那么现在,让你总结一下哪些是苹果? 1)苹果都是圆的。我们发现,有些苹果不是圆的、有些水果是圆的但不是苹果, 2)其中到这些违反“苹果都是圆的”这一规则的图片,我们得到“苹果都是圆的,可能是红色或者绿色”。。我们发现还是有些图片违反这一规则; 3)其中到违反规则的... ...
分类:
其他好文 时间:
2016-05-23 16:44:09
阅读次数:
159