没空读论文的悲剧,看了各种帖子感觉还是很难理解到这种方法背后思维的本质,虽然一两句话说思想简单,但是能透彻地理解感觉还是比较困难,看了半天帖子说得比较清晰的估计得结合这两个: https://en.wikipedia.org/wiki/Gradient_boosting http://www.jia ...
分类:
其他好文 时间:
2017-10-11 12:44:59
阅读次数:
102
1、集成学习概述 1.1 集成学习概述 集成学习在机器学习算法中具有较高的准去率,不足之处就是模型的训练过程可能比较复杂,效率不是很高。目前接触较多的集成学习主要有2种:基于Boosting的和基于Bagging,前者的代表算法有Adaboost、GBDT、XGBOOST、后者的代表算法主要是随机森 ...
分类:
编程语言 时间:
2017-10-10 22:01:01
阅读次数:
242
我不会给大家介绍机器学习,数据挖掘的行业背景,也不会具体介绍逻辑回归,SVM,GBDT,神经网络等学习算法的理论依据和数学推导,本文更多的是在流程化上帮助大家快速的入门机器学习和数据建模。 ...
分类:
其他好文 时间:
2017-10-09 16:51:00
阅读次数:
515
http://www.jianshu.com/p/005a4e6ac775 综述 GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的 ...
分类:
其他好文 时间:
2017-10-01 22:10:08
阅读次数:
288
Random Forest ?采用bagging思想,即利用bootstrap抽样,得到若干个数据集,每个数据集都训练一颗树。 构建决策树时,每次分类节点时,并不是考虑全部特征,而是从特征候选集中选取若干个特征用于计算。弱特征共有p个,一般选取m=sqrt(p)个特征。当可选特征数目很大时,选取一个 ...
分类:
其他好文 时间:
2017-09-17 00:38:31
阅读次数:
353
误入数据分析行业已有5年多,由于并非“科班”专业毕业,自己从编程到统计理论基础,从简单线性回归到SVM、GBDT、LSTM等复杂算法一路跌跌撞撞学习过来,蓦然回首,才发现做了这么久的数据分析、数据挖掘、大数据等,却没有系统地思考过“数据”这一最基础的要素的确切含义和特性。而所有行业中,基础要素的概念 ...
分类:
其他好文 时间:
2017-08-22 01:53:22
阅读次数:
170
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com。也可以加我的微博: @leftnoteasy 前言: 决策树这种算法有着很多良好的特 ...
分类:
编程语言 时间:
2017-08-15 21:04:52
阅读次数:
178
GBDT和随机森林的相同点: 1、都是由多棵树组成 2、最终的结果都是由多棵树一起决定 GBDT和随机森林的不同点: 1、组成随机森林的树可以是分类树,也可以是回归树;而GBDT只由回归树组成 2、组成随机森林的树可以并行生成;而GBDT只能是串行生成 3、对于最终的输出结果而言,随机森林采用多数投 ...
分类:
其他好文 时间:
2017-08-15 21:02:12
阅读次数:
257
1、集成学习概述 1.1 集成学习概述 集成学习在机器学习算法中具有较高的准去率,不足之处就是模型的训练过程可能比较复杂,效率不是很高。目前接触较多的集成学习主要有2种:基于Boosting的和基于Bagging,前者的代表算法有Adaboost、GBDT、XGBOOST、后者的代表算法主要是随机森 ...
分类:
编程语言 时间:
2017-08-08 16:40:54
阅读次数:
256
卧槽,本来猜GBDT获取的组合特征,需要自己去解析GBDT的树,scikit learn里面竟然直接调用apply函数就可以了 ...
分类:
其他好文 时间:
2017-07-30 17:15:12
阅读次数:
110