码迷,mamicode.com
首页 > 其他好文 > 详细

集成学习_Bagging 和随机森林(rf)

时间:2019-05-22 11:06:06      阅读:118      评论:0      收藏:0      [点我收藏+]

标签:方法   技术   strong   避免   多个   nbsp   进化   个数   str   

     集成学习方式总共有3种:bagging-(RF)、boosting-(GBDT/Adaboost/XGBOOST)、stacking

     下面将对Bagging 进行介绍:(如下图所示)

技术图片

     用Bagging的方法抽取训练集时,大约有1/3 的数据没有被抽到。

 技术图片  技术图片

       从训练集进行一系列的子抽样,得到子训练集,训练成基模型,测试集被用来在整个基模型上进行预测,得到的综合预测结果。(看上面右边的图增加理解)

        bagging 怎么避免过拟合,其是通过多个基模型求平均 ,就相当于避免过拟合。

随机森林是它是Bagging算法的进化版。

  技术图片技术图片

随机森林的思想仍然是bagging,但是进行了独有的改进。

(1) RF使用了CART决策树作为弱学习器。

(2)在使用决策树的基础上,RF对决策树的建立做了改进,对于普通的决策树,我们会在节点上所有的n个样本特征中选择一个最优的特征来做决策树的左右子树划分,但是RF通过随机选择节点上的一部分样本特征,这个数字小于n,假设为nsub,然后在这些随机选择的nsub个样本特征中,选择一个最优的特征来做决策树的左右子树划分.这样进一步增强了模型的泛化能力。

nsub 越小,则模型约健壮,当然此时对于训练集的拟合程度会变差.也就是说nsub越小,模型的方差会减小,但是偏倚会增大。在实际案例中,一般会通过交叉验证调参获取一个合适的nsub的值。

集成学习_Bagging 和随机森林(rf)

标签:方法   技术   strong   避免   多个   nbsp   进化   个数   str   

原文地址:https://www.cnblogs.com/mengmengxia/p/10904126.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!