标签:wrap 合成 pat 参考 种类型 self 重复 sse 假设
? 个体学习器通常是用一个现有的学习算法从训练数据产生,例如C4.5决策树算法、BP神经网络算法等。此时集成中只包含同种类型的个体学习器,例如“决策树集成”中的个体学习器全是决策树,“神经网络集成”中就全是神经网络,这样的集成是“同质”(homogeneous)的,同质集成中的个体学习器也称为“基学习器”(baselearner),相应的学习算法称为“基学习算法”(baselearning algorithm)。有同质就有异质(heterogeneous),若集成包含不同类型的个体学习器,例如同时包含决策树和神经网络,那么这时个体学习器一般不称为基学习器,而称作“组件学习器”(componentleaner)或直接称为个体学习器。
?1)模型选择
?假设个弱分类器将具有一定的差异性,这会导致生成的分类决策边界不同,也就是说他们在决策 的时候会犯不同的错误。将他们结合后能得到更合理的边界,减少整体的错误, 实现更好的分类效果。
?2)数据集过大或过小
?数据集过大时,可以分成不同的子集,分别训练,再合成分类器。
?数据集过小时,可采用有放回抽样(bootstrap)
?3)数据融合(datafusion)
?当有多个不同的数据源时,且每个数据源的特征集抽取的方法不同时,需要分别训练再集成
hard voting 是依据投票进行决策
soft voting 是依据各分类器的概率之和 进行决策
当 noise 噪声为 0 时,显示是两个半圆的数据集
当噪声 noise 为 0.3 的数据集,画出图像为:
?目前集成学习方法大致可分为两大类:
第一类是个体学习器之间存在强依赖关系、必须串行生成的序列化方法,这种方法的代表是“Boosting”;
第二类是个体学习器间不存在强依赖关系、可同时生成的并行化方法,它的代表是“Bagging”和“RandomForest”
?Bagging:bagging通过降低基分类器方差改善了泛化能力,因此bagging的性能依赖于基分类器的稳定性,如果基分类器是不稳定的,bagging有助于减低训练数据的随机扰动导致的误差,但是如果基分类器是稳定的,即对数据变化不敏感,那么bagging方法就得不到性能的提升,甚至会减低,因为新数据集只有63%。最常用的是DT决策树
?随机森林(RandomForest)是许多决策树的平均,每个决策树都用通过Bootstrap的方式获得随机样本训练。森林中的每个独立的树都比一个完整的决策树弱,但是通过将它们结合,可以通过多样性获得更高的整体表现。
?随机森林具有Self-testing的特性,因为随机森林是通过Bootstrap的方式采样,理论上往往会有大约1/3的原始数据没有被选中,我们叫做OOB(outof bag),而这部分数据刚好可以用来做测试,类似于Cross-Validation的作用。一般的基础分类器的个数为500棵或者可以更多。非参数的机器学习算法对个别的数据点较为敏感。
1?随机森林具有很多的优点:
?所有的数据都能够有效利用,而且不用人为的分出一部分数据来做cross-validation;
?随机森林可以实现很高的精确度,但是只有很少的参数,而且对于分类和回归都适用;
?不用担心过拟合的问题;
?不需要事先做特征选择,每次只用随机的选取几个特征来训练树。
2?它的缺点是:
?相比于其他算法,其输出预测可能较慢。
使用bagging 和 randomforest :
?boosting:提升方法是一个迭代的过程,通过改变样本分布,使得分类器聚集在那些很难分的样本上,对那些容易错分的数据加强学习,增加错分数据的权重,这样错分的数据再下一轮的迭代就有更大的作用(对错分数据进行惩罚)。数据的权重有两个作用,一方面我们可以使用这些权值作为抽样分布,进行对数据的抽样,另一方面分类器可以使用权值学习有利于高权重样本的分类器。
?AdaBoost(adaptive boosting)会根据当前的错误率,按照增大错误样本权重,减小正确样本权重的原则更新每个样本的权重。不断重复训练和调整权重,直到训练错误率或基学习器的个数满足用户指定的数目为止。Adaboost的最终结果为每个弱学习器加权的结果。
?AdaBoost优点:
?很容易实施
?几乎没有参数需要调整
?不用担心过拟合
?缺点:
?公式中的α是局部最优解,不能保证是最优解
?对噪声很敏感
?Gradient Boosted Regression Trees (GBRT)梯度提升回归树:
?GBRT也是一种Boosting方法,每个子模型是根据已训练出的学习器的性能(残差)训练出来的,子模型是串行训练获得,不易并行化。GBRT基于残差学习的算,没有AdaBoost中的样本权重的概念。GBRT结合了梯度迭代和回归树,准确率非常高,但是也有过拟合的风险。GBRT中迭代的是残差的梯度,残差就是目前结合所有得到的训练器预测的结果与实际值的差值。
使用AdaBoost 和 Gradient Boosting 梯度提升:
wil的笔记 的 blog中有个关于adaboost 的计算例子,十分有助于我们对adaboost的理解。
文中例子 ‘第二轮’中的Z1 表示:(就是全部新的权重因子的和,称为规范化因子,使其全部权重相加为1 .)
AdaBoost算法可以认为是一种模型为加法模型、损失函数为指数函数、学习算法为前向分步算法的而分类学习方法。
前向分步算法对加法模型的求解思路是:如果能够从前向后,每一步只学习一个基函数及其系数,逐步逼近优化目标,那么就可以简化优化的复杂度。
1.
AdaBoost算法是前向分布加法算法的特例。这时,模型是由基本分类器组成的加法模型,损失函数是指数函数。即此时的基函数为基分类器。AdaBoost的最终分类器为:
定义损失函数为:
当真实值与预测值不同时,损失值为 e ,相同时为1/e
进行 t 轮的迭代可得:
我们的目标是求得
其中:
对式子进行变形:
对式子
先令 :
可以得到:
由此知道:
αt 随着et 的减小而增大,所以分类误差率越小的基分类器在最终分类器中的作用越大。
2.
由上述推导的式子:
将第一个式子两边 同时乘以
再添加一个分母进行规范化:
参考: https://www.cnblogs.com/willnote/p/6801496.html
https://blog.csdn.net/ruiyiin/article/details/77114072
https://blog.csdn.net/qq_32690999/article/details/78759463
adaboost算法原理参照:
https://www.cnblogs.com/willnote/p/6801496.html
https://blog.csdn.net/v_july_v/article/details/40718799
标签:wrap 合成 pat 参考 种类型 self 重复 sse 假设
原文地址:https://www.cnblogs.com/junge-mike/p/9335043.html