这几天完成了树回归的相关学习,这一部分内容挺多,收获也挺多,刚刚终于完成了全部内容,非常开心。
树回归这一章涉及了CART,CART树称作(classify and regression tree) 分类与回归树,既可以用于分类,也可以用于回归。这正是前面决策树没有说到的内容,在这里补充一下。正好也总结一下我们学的3种决策树。
ID3:用信息增益来选择特性进行分类,只能处理分类问题。缺点是往往...
分类:
其他好文 时间:
2016-04-09 00:23:43
阅读次数:
323
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、随机森林(RF) 1.RF介绍 RF通过Bagging的方式将许多个CART组合在一起,不考虑计算代价,通常树越多越好。 RF中使用CART没有经过剪枝操作,一般会有比较... ...
分类:
其他好文 时间:
2016-04-05 12:09:44
阅读次数:
340
课程地址:https://class.coursera.org/ntumltwo-002/lecture 重要!重要!重要~ 一、决策树(Decision Tree)、口袋(Bagging),自适应增强(AdaBoost) Bagging和AdaBoost算法再分类的时候,是让所有的弱分类器同时发挥... ...
分类:
编程语言 时间:
2016-04-04 20:56:34
阅读次数:
510
5.1cart示例56 5.1.1业务接口57 5.1.2会话bean类57 5.1.3@Remove方法61 5.1.4辅助类61 5.1.5运行cart示例615.2一个单例会话bean示例:counter62 5.2.1创建一个单例会话bean63 5.2.2counter示例的...
分类:
编程语言 时间:
2016-01-24 18:07:44
阅读次数:
239
HaarTraining关键的部分是建立基分类器classifier,OpenCV中所採用的是CART(决策树的一种):通过调用cvCreateMTStumpClassifier来完毕。这里我讨论利用回归的方法来分裂结点。分类的方法仅仅是在分裂结点的方法与之不同而已。cvCreateMTStumpC...
分类:
其他好文 时间:
2016-01-08 09:19:50
阅读次数:
156
if-then规则的集合,优点是模型具有可读性,分类速度快。决策树常用的算法:ID3算法、C4.5算法、CART算法1、熵(entropy,又称信息熵)因此,熵只依赖于X的分布,与X的取值无关。熵越大,随机变量X的不确定性就越大。如果有0概率,令。单位为比特(bit)或纳特(Nat)2、条件熵——表...
分类:
编程语言 时间:
2015-12-29 12:41:50
阅读次数:
184
的优点是,在一个决策树的形式数据是easy理解。和kNN最大的缺点是数据的内在含义,不能给予。1:这个概念很简单文字说明 决策树的类型有非常多。有CART、ID3和C4.5等。当中CART是基于基尼不纯度(Gini)的。这里不做具体解释,而ID3和C4.5都是基于信息熵的,它们两个得到的结果都是一样...
分类:
其他好文 时间:
2015-12-14 16:18:08
阅读次数:
204
主表,从表【MySql】//http://my.oschina.net/cart/blog/277624空、RESTRICT、NO ACTION删除:从表记录不存在时,主表才可以删除。删除从表,主表不变更新:从表记录不存在时,主表才可以更新。更新从表,主表不变//http://my.oschina....
分类:
数据库 时间:
2015-12-12 12:32:08
阅读次数:
228
需求:1:每个用户的 购物车(cart) 用合适的数据结构缓存在内存中。2:对每个数据对象的访问,合理设置并管理缓存(使用独立的模块读写数据库)。让程序结构变得可管理、可维护。3:对每种商品,设定一个库存。下订单就(假设不需要付款)完成需要减库存。4:将 商品详情 页面的 当前库存 采用 ajax ...
分类:
编程语言 时间:
2015-11-29 00:55:32
阅读次数:
231
NO.1 Data Mining 和统计分析有什么不同? 硬要去区分Data Mining和Statistics的差异其实是没有太大意义的。一般将之定义为Data Mining技术的CART、CHAID或模糊计算等等理论方法,也都是由统计学者根据统计理论所...
分类:
其他好文 时间:
2015-11-05 15:28:39
阅读次数:
240