码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习技法(11)--Gradient Boosted Decision Tree

时间:2016-10-08 19:17:20      阅读:166      评论:0      收藏:0      [点我收藏+]

标签:

技术分享

AdaBoost D Tree有了新的权重的概念。

技术分享

现在的优化目标,如何进行优化呢?

技术分享

不更改算法的部门,而想办法在输入的数据方面做修改。

权重的意义就是被重复取到的数据的次数。这样的话,根据权重的比例进行重复的抽样。最后的结果也和之前一样能够表达权重的意义在里面了。

在一个fully grown tree的情况下:

技术分享

应对办法:

技术分享

如果剪枝剪到极限的时候:

技术分享

就是AdaBoost Stump。

在AdaBoost中:

技术分享

技术分享

有阴影的部分就是用来投票决定G最终结果的。这个方程式延伸一下:

技术分享

对他们这样投票的过程可以类比SVM里margin的概念。voting score也可以看成是一种距离。这个距离也是越大越好。

技术分享

又成了一个最佳化的过程。

随着AdaBoost进行,这个值会越来越小。

技术分享

最终想要优化的目标:

技术分享

所以我们会有一个exponential error measure来对AdaBoost的上界进行bound。下面就是数学上进行优化了。

按照梯度下降的思路进行最佳化:

技术分享

技术分享

所以,在AdaBoost中的A就是好的gt了。下面就是优化步幅η了。

技术分享

微分一下:

技术分享

根据以上思路进行拓展:

技术分享

Gradient Boost可以对任何的error function进行拓展。

拓展到regression问题的时候:

技术分享

加上正则化的惩罚项:

技术分享

技术分享

最终得出了GBDT的形式:

技术分享

最后对几个ensemble的模型进行一些总结:

技术分享

技术分享

技术分享

总结:

技术分享

 

机器学习技法(11)--Gradient Boosted Decision Tree

标签:

原文地址:http://www.cnblogs.com/cyoutetsu/p/5939337.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!