码迷,mamicode.com
首页 > 其他好文 > 详细

梯度提升树GBDT原理

时间:2016-04-19 19:43:45      阅读:328      评论:0      收藏:0      [点我收藏+]

标签:

1.模型
提升方法实际采用加法模型(即基函数的线性组合)与前向分布算法。以决策树为基函数的提升方法称为提升树(boosting tree)。对分类问题决策树是二叉分类树,对回归问题决策树是二叉决策树。提升树模型可以表示为决策树的加法模型:技术分享
其中,技术分享表示决策树;技术分享为决策树的参数;M为树的个数
2.学习过程
回归问题提升树使用以下前向分布算法
技术分享
在前向分布算法的第m步,给定当前模型技术分享,需求解
技术分享
得到技术分享,即第m棵树的参数
当采用平方误差损失函数时技术分享
其损失变为技术分享
其中,技术分享是当前模型拟合数据的残差(residual)。对于平方损失函数,拟合的就是残差;对于一般损失函数(梯度下降),拟合的就是残差的近似值
3.算法
输入:训练数据集技术分享
输出:提升树技术分享
(1)初始化技术分享
(2)对m = 1,2,…,M

  1. 计算残差技术分享
  2. 拟合残差学习一个回归树,得到技术分享
  3. 更新技术分享

(3)得到回归问题提升树技术分享
仔细观察下上面的算法过程,我们可以看到GBDT很难实现并行
附sklearn中GBDT文档 地址
参考
(1)统计学习方法

梯度提升树GBDT原理

标签:

原文地址:http://blog.csdn.net/a819825294/article/details/51188740

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!