码迷,mamicode.com
首页 > 其他好文 > 详细

决策树公式

时间:2017-09-20 12:10:39      阅读:161      评论:0      收藏:0      [点我收藏+]

标签:ring   公式   class   str   特征   条件   ber   第一个   nbsp   

[[1, 1, ‘yes‘], [1, 1, ‘yes‘], [1, 0, ‘no‘], [0, 1, ‘no‘], [0, 1, ‘no‘]]  

经验熵 - 经验条件熵

“yes”有两个,no 有3个,经验熵 = - 2/5  * log(2/5) - 3/5 * log(3/5),这个公式设为def|

划分数据集,从特征1划分就是分为两个数据集[[ 1, ‘yes‘], [ 1, ‘yes‘], [ 0, ‘no‘]]  和[ [ 1, ‘no‘], [ 1, ‘no‘]]

经验条件熵就是 3/5* def(第一个数据集) + 2/5 * def(第二个数据集)

计算信息增益的公式就是 

                   经验熵-经验条件熵

决策树公式

标签:ring   公式   class   str   特征   条件   ber   第一个   nbsp   

原文地址:http://www.cnblogs.com/lcjy/p/7560262.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!