https://plushunter.github.io/2017/01/22/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%AE%97%E6%B3%95%E7%B3%BB%E5%88%97%EF%BC%887%EF%BC%89%EF%BC%9AGBDT/ ...
分类:
其他好文 时间:
2017-12-28 18:21:26
阅读次数:
149
一面:1h 一面:1h 介绍比赛项目。 lr与xgb的区别? xgb 为什么不用归一化,onehot? xgb 与 gbdt的区别。 做这些比赛你们的优势在哪,既然全是相同的套路。 RCNN的原理, CNN的原理。LSTM的介绍,包括哪些门 。LSTM与RNN有哪些不同,解决了什么问题。 深度学习如 ...
分类:
编程语言 时间:
2017-12-20 03:44:06
阅读次数:
369
联想研究院 1面 自我介绍 聊比赛,讲了讲jdd的。 感觉都快要背过了。。。 之前重复的问题就不说了,说一下印象比较深的 adaboost 与gbdt的区别 随机森林,如果有t个特征,n个树,每个树深为m,求某个特征一次也没有被用的概率。 xgb与gbdt的区别 adaboost 参数是怎样更新的 ...
分类:
编程语言 时间:
2017-12-16 17:11:20
阅读次数:
220
转刘建平Pinard 在集成学习之Adaboost算法原理小结中,我们对Boosting家族的Adaboost算法做了总结,本文就对Boosting家族中另一个重要的算法梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)做一个总结。GBDT有很多简称,有G ...
分类:
其他好文 时间:
2017-11-11 13:05:48
阅读次数:
217
现在趋势是高层用可解释的模型例如 线性模型或者gbdt,下层用带深度的embedding。文本向量化的 word 2 vector 很不错也有很多自己做得模型,关键在于语聊,模型效果差异不大。这里有训练好的模型,30种语言非英语,感觉语料不是很好https://github.com/Kyubyong... ...
分类:
其他好文 时间:
2017-11-10 13:49:48
阅读次数:
237
参考网址: 1. GBDT(MART) 迭代决策树入门教程 | 简介 2. Wikipedia: Gradient boosting 一般Gradient Boosting: 输入:训练集$\{(x_{i}, y_{i})\}_{i=1}^{n}$,可导损失函数$L(y, F(x))$,迭代次数$M ...
分类:
其他好文 时间:
2017-11-06 21:24:12
阅读次数:
191
梯度迭代树(GBDT)算法原理及Spark MLlib调用实例(Scala/Java/python) http://blog.csdn.net/liulingyuan6/article/details/53426350 梯度迭代树 算法简介: 梯度提升树是一种决策树的集成算法。它通过反复迭代训练决策 ...
分类:
编程语言 时间:
2017-11-06 11:05:44
阅读次数:
714
https://zhuanlan.zhihu.com/p/27689464 这篇文章对集成学习讲的不错 在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现比较好的模型,但实际情况往往不这么理想,有时会我们只能得到多个有偏好的模型(弱监督模型,在某些方面表现比较好)。集成学习就 ...
分类:
其他好文 时间:
2017-10-30 17:09:24
阅读次数:
281
刘建平Pinard 十年码农,对数学统计学,数据挖掘,机器学习,大数据平台,大数据平台应用开发,大数据可视化感兴趣。 刘建平Pinard 十年码农,对数学统计学,数据挖掘,机器学习,大数据平台,大数据平台应用开发,大数据可视化感兴趣。 博客园 首页 新随笔 联系 订阅 管理 博客园 首页 新随笔 联 ...
不需要对特征进行归一化或标准化处;能够自动进行特征选择;可以分布式并行计算。 XGBOOST框架是对GBDT的优化设计,它的优点主要有 ...
分类:
其他好文 时间:
2017-10-18 10:08:41
阅读次数:
117