码迷,mamicode.com
首页 > 其他好文 > 详细

决策树---连续值处理

时间:2018-07-23 18:07:19      阅读:424      评论:0      收藏:0      [点我收藏+]

标签:最大的   属性   连续   c4.5   图片   机器学习   基本   ddl   二分   

最近在复习机器学习的基本算法,再看周志华老师的《机器学习》决策树这一章时,发现,之前学习时都没决策树的连续值和缺失值处理。这两天看完了,这里记录一下

 因为连续属性的可取值数目不再有限,因此不能像处理离散属性那样通过枚举离散属性取值来对结点进行划分。有点像处理连续信号那样,需要连续属性离散化,常用的离散化策略是二分法,这个技术也是C4.5中采用的策略。

技术分享图片

下面以西瓜数据集的“密度”属性为例具体介绍下,如何采用二分法对连续属性离散化:

 技术分享图片

 计算过程:

1.将根节点(要划分的节点)属性值(“密度”’)进行排序(由小到大)

2.计算划分点集合

3.计算划分点信息增益

具体过程如下:

1.对密度值进行划分技术分享图片

2.划分点集合:技术分享图片

3.计算划分点信息增益

 技术分享图片

以此类推,计算出该根节点所有划分点t的信息增益,选出最大的信息增益0.263,此时,划分点为t= 0.381,选择该划分点。同理,可计算出含糖率作为划分属性时的最大信息增益为0.349,只是,根节点还是以纹理属性作为划分属性,因为,之前计算过,各属性作为划分属性时的信息增益。

技术分享图片

 

决策树---连续值处理

标签:最大的   属性   连续   c4.5   图片   机器学习   基本   ddl   二分   

原文地址:https://www.cnblogs.com/Holly-blog/p/9353239.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!