码迷,mamicode.com
首页 > 编程语言 > 详细

C4.5算法学习

时间:2019-09-08 11:16:33      阅读:104      评论:0      收藏:0      [点我收藏+]

标签:ati   mic   ide   family   分类   样本   概念   不能   类信息   

C4.5属于决策树算法的分类树决策树更是常见的机器学习方法,可以帮助我们解决分类与回归两类问题。以决策树作为起点的原因很简单,因为它非常符合我们人类处理问题的方法,而且逻辑清晰,可解释性好。从婴儿到长者,我们每天都使用无数次!

 技术图片

 

 

决策树的总体流程;

总体流程

分而治之(devide and conquer

自根结点的递归过程

从每一个中间结点寻找一个划分(split and test)的属性

三种停止条件:

当前结点包含的样本属于同一类别,无需划分

当前属性集为空,或是所有样本在所有属性值上取值相同,无法划分

当前结点包含的样本集合为空,不能划分

核心数学概念:熵

信息熵(entropy)是度量样本集合“纯度”最常用的一种指标

 技术图片

 

 

 

 

 C4.5算法流程 

 技术图片

 

 

C4.5算法优缺点分析

优点:

1)通过信息增益率选择分裂属性,克服了ID3算法中通过信息增益倾向于选择拥有多个属性值的属性作为分裂属性的不足;

2)能够处理离散型和连续型的属性类型,即将连续型的属性进行离散化处理;

3)构造决策树之后进行剪枝操作;

4)能够处理具有缺失属性值的训练数据。

缺点:

1)算法的计算效率较低,特别是针对含有连续属性值的训练样本时表现的尤为突出。

2)算法在选择分裂属性时没有考虑到条件属性间的相关性,只计算数据集中每一个条件属性与决策属性之间的期望信息,有可能影响到属性选择的正确性。

 

算法详解:https://blog.csdn.net/zjsghww/article/details/51638126

 

算法程序

while(当前节点不纯)
1.计算当前节点的类别熵Info(D)(以类别取值计算)

2.计算当前节点的属性熵info(Ai)(按照当前属性取值下的类别取值计算)
3.计算各个属性的信息增益Gain(Ai) = Info(D)-info(Ai)

4.计算各个属性的分类信息度量H(Ai)(按照属性取值计算)

5.计算各个属性的信息增益率 IGR = Gain(Ai)/H(Ai)

and while

当前节点设置为叶子节点

C4.5算法学习

标签:ati   mic   ide   family   分类   样本   概念   不能   类信息   

原文地址:https://www.cnblogs.com/normaltang/p/11484771.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!