标签:
课程地址:https://class.coursera.org/ntumltwo-002/lecture
重要!重要!重要~
一、决策树(Decision Tree)、口袋(Bagging),自适应增强(AdaBoost)
二、基本决策树算法
1.用递归的视角来看决策树,根据特征选择分支条件,不断的生成子树,所有的子数组成了最后的决策树。
例如下面根据回家时间、约会情况、作业的deadline的特征,生成决策树,预测是否会观看mooc在线课程。
2.基本的决策树算法描述
三、CART算法(分类回归树)
林这里讲的很容易理解,可以参考:http://blog.csdn.net/u011067360/article/details/24871801?utm_source=tuicool&utm_medium=referral
GINI指数:介于0~1之间的数,0-完全相等,1-完全不等。总体内包含的类别越杂乱,GINI指数就越大(和熵的概念类似)。
四、CART和AdaBoost元算法应用比较
CART相比AdaBoost的效率会高一些,因为前者是“有条件的切”,后者是完全的“横、竖”。
五、CART实践中的特点
标签:
原文地址:http://www.cnblogs.com/wxquare/p/5352795.html