码迷,mamicode.com
首页 > 其他好文 > 详细

[ML] {ud120} Lesson 4: Decision Trees

时间:2019-06-07 13:13:33      阅读:83      评论:0      收藏:0      [点我收藏+]

标签:bsp   -o   nta   const   multiple   res   target   har   nbsp   

Linearly Separable Data

 

 技术图片

 

 

 

 Multiple Linear Questions

 技术图片

 

 

 

 

 

 

Constructing a Decision Tree First Split 

 技术图片

 

 

 

 Coding A Decision Tree

 技术图片

技术图片

 

 

 

 技术图片

技术图片

 

 

 

 

 Decision Tree Parameters

技术图片

技术图片

 

 

 

 

 Data Impurity and Entropy

 技术图片

 

 

 

 Formula of Entropy

 技术图片

技术图片

技术图片 

There is an error in the formula in the entropy written on this slide. There should be a negative (-) sign preceding the sum:

Entropy = - \sum_i (p_i) \log_2 (p_i)i?(pi?)log2?(pi?)

 

 

 

技术图片

技术图片

技术图片

技术图片

 

 技术图片

技术图片

IG = 1

 

 

 

 Tuning Criterion Parameter

 技术图片

gini is another measurement of purity

 

 

 

Decision Tree Mini-Project

 

In this project, we will again try to identify the authors in a body of emails, this time using a decision tree. The starter code is in decision_tree/dt_author_id.py.

Get the data for this mini project from here.

Once again, you‘ll do the mini-project on your own computer and enter your answers in the web browser. You can find the instructions for the decision tree mini-project here.

 

[ML] {ud120} Lesson 4: Decision Trees

标签:bsp   -o   nta   const   multiple   res   target   har   nbsp   

原文地址:https://www.cnblogs.com/ecoflex/p/10987754.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!