标签:
今天主要讲述的内容是关于决策树的知识,主要包括以下内容:样本 红 大 好苹果 0 1 1 1 1 1 0 1 2 0 1 0 3 0 0 0样本中有2个属性,A0表示是否红苹果。A1表示是否大苹果。
示例3:
第三个例子,推荐这篇文章:决策树学习笔记整理 - bourneli
在Sklearn机器学习包中,集成了各种各样的数据集,上节课讲述Kmeans使用的是一个NBA篮球运动员数据集,需要定义X多维矩阵或读取文件导入,而这节课使用的是鸢尾花卉Iris数据集,它是很常用的一个数据集。
数据集来源:Iris plants data set - KEEL dataset
该数据集一共包含4个特征变量,1个类别变量。共有150个样本,鸢尾有三个亚属,分别是山鸢尾 (Iris-setosa),变色鸢尾(Iris-versicolor)和维吉尼亚鸢尾(Iris-virginica)。
iris是鸢尾植物,这里存储了其萼片和花瓣的长宽,共4个属性,鸢尾植物分三类。
#导入数据集iris from sklearn.datasets import load_iris #载入数据集 iris = load_iris() #输出数据集 print iris.data输出如下所示:
[[ 5.1 3.5 1.4 0.2] [ 4.9 3. 1.4 0.2] [ 4.7 3.2 1.3 0.2] [ 4.6 3.1 1.5 0.2] [ 5. 3.6 1.4 0.2] [ 5.4 3.9 1.7 0.4] [ 4.6 3.4 1.4 0.3] [ 5. 3.4 1.5 0.2] [ 4.4 2.9 1.4 0.2] .... [ 6.7 3. 5.2 2.3] [ 6.3 2.5 5. 1.9] [ 6.5 3. 5.2 2. ] [ 6.2 3.4 5.4 2.3] [ 5.9 3. 5.1 1.8]]target是一个数组,存储了data中每条记录属于哪一类鸢尾植物,所以数组的长度是150,数组元素的值因为共有3类鸢尾植物,所以不同值只有3个。种类:
#输出真实标签 print iris.target print len(iris.target) #150个样本 每个样本4个特征 print iris.data.shape输出结果如下:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2] 150 (150L, 4L)可以看到,类标共分为三类,前面50个类标位0,中间50个类标位1,后面为2。
sklearn.tree.DecisionTreeClassifier(criterion=‘gini‘ , splitter=‘best‘ , max_depth=None , min_samples_split=2 , min_samples_leaf=1 , max_features=None , random_state=None , min_density=None , compute_importances=None , max_leaf_nodes=None)鸢尾花数据集使用决策树的代码如下:
# -*- coding: utf-8 -*- """ Created on Fri Oct 14 21:44:19 2016 @author: 杨秀璋 """ #导入数据集iris from sklearn.datasets import load_iris #载入数据集 iris = load_iris() print iris.data #输出数据集 print iris.target #输出真实标签 print len(iris.target) print iris.data.shape #150个样本 每个样本4个特征 #导入决策树DTC包 from sklearn.tree import DecisionTreeClassifier #训练 clf = DecisionTreeClassifier() clf.fit(iris.data, iris.target) print clf #预测 predicted = clf.predict(iris.data) #获取花卉两列数据集 X = iris.data L1 = [x[0] for x in X] print L1 L2 = [x[1] for x in X] print L2 #绘图 import numpy as np import matplotlib.pyplot as plt plt.scatter(L1, L2, c=predicted, marker=‘x‘) #cmap=plt.cm.Paired plt.title("DTC") plt.show()
输出结果如下所示,可以看到分位三类,分别代表数据集三种鸢尾植物。
在课堂上我讲过,这里存在两个问题:
1.前面鸢尾Iris数据集包括四个特征(萼片长度、萼片宽度、花瓣长度、花瓣宽度),上面代码中"L1 = [x[0] for x in X]"我获取了第一列和第二列数据集进行的绘图,而真是数据集中可能存在多维特征,那怎么实现呢?
这里涉及到一个降维操作,后面会详细介绍。
2.第二个问题是,分类学习模型如下所示,它的预测是通过一组新的数据集。
而上面的代码"predicted = clf.predict(iris.data)"是对整个的数据集进行决策树分析,而真是的分类分析,需要把一部分数据集作为训练,一部分作为预测,这里使用70%的训练,30%的进行预测。代码如下:
#训练集 train_data = np.concatenate((iris.data[0:40, :], iris.data[50:90, :], iris.data[100:140, :]), axis = 0) #训练集样本类别 train_target = np.concatenate((iris.target[0:40], iris.target[50:90], iris.target[100:140]), axis = 0) #测试集 test_data = np.concatenate((iris.data[40:50, :], iris.data[90:100, :], iris.data[140:150, :]), axis = 0) #测试集样本类别 test_target = np.concatenate((iris.target[40:50], iris.target[90:100], iris.target[140:150]), axis = 0)优化后的完整代码如下所示,同时输出准确率、召回率等。
# -*- coding: utf-8 -*- """ Created on Fri Oct 14 21:44:19 2016 @author: 杨秀璋 """ #导入数据集iris from sklearn.datasets import load_iris #载入数据集 iris = load_iris() ‘‘‘ print iris.data #输出数据集 print iris.target #输出真实标签 print len(iris.target) print iris.data.shape #150个样本 每个样本4个特征 ‘‘‘ ‘‘‘ 重点:分割数据集 构造训练集/测试集,120/30 70%训练 0-40 50-90 100-140 30%预测 40-50 90-100 140-150 ‘‘‘ #训练集 train_data = np.concatenate((iris.data[0:40, :], iris.data[50:90, :], iris.data[100:140, :]), axis = 0) #训练集样本类别 train_target = np.concatenate((iris.target[0:40], iris.target[50:90], iris.target[100:140]), axis = 0) #测试集 test_data = np.concatenate((iris.data[40:50, :], iris.data[90:100, :], iris.data[140:150, :]), axis = 0) #测试集样本类别 test_target = np.concatenate((iris.target[40:50], iris.target[90:100], iris.target[140:150]), axis = 0) #导入决策树DTC包 from sklearn.tree import DecisionTreeClassifier #训练 clf = DecisionTreeClassifier() #注意均使用训练数据集和样本类标 clf.fit(train_data, train_target) print clf #预测结果 predict_target = clf.predict(test_data) print predict_target #预测结果与真实结果比对 print sum(predict_target == test_target) #输出准确率 召回率 F值 from sklearn import metrics print(metrics.classification_report(test_target, predict_target)) print(metrics.confusion_matrix(test_target, predict_target)) #获取花卉测试数据集两列数据集 X = test_data L1 = [n[0] for n in X] print L1 L2 = [n[1] for n in X] print L2 #绘图 import numpy as np import matplotlib.pyplot as plt plt.scatter(L1, L2, c=predict_target, marker=‘x‘) #cmap=plt.cm.Paired plt.title("DecisionTreeClassifier") plt.show()输出结果如下:
DecisionTreeClassifier(class_weight=None, criterion=‘gini‘, max_depth=None, max_features=None, max_leaf_nodes=None, min_samples_leaf=1, min_samples_split=2, min_weight_fraction_leaf=0.0, presort=False, random_state=None, splitter=‘best‘) [0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2] 30 precision recall f1-score support 0 1.00 1.00 1.00 10 1 1.00 1.00 1.00 10 2 1.00 1.00 1.00 10 avg / total 1.00 1.00 1.00 30 [[10 0 0] [ 0 10 0] [ 0 0 10]]绘制图形如下所示:
最后补充Skleaern官网上的一个决策树的例子,推荐大家学习。
推荐地址:Plot the decision surface of a decision tree on the iris dataset
代码如下:
# -*- coding: utf-8 -*- """ Created on Wed Oct 12 23:30:34 2016 @author: yxz15 """ print(__doc__) import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import load_iris from sklearn.tree import DecisionTreeClassifier # Parameters n_classes = 3 plot_colors = "bry" plot_step = 0.02 # Load data iris = load_iris() for pairidx, pair in enumerate([[0, 1], [0, 2], [0, 3], [1, 2], [1, 3], [2, 3]]): # We only take the two corresponding features X = iris.data[:, pair] y = iris.target # Train clf = DecisionTreeClassifier().fit(X, y) # Plot the decision boundary plt.subplot(2, 3, pairidx + 1) x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1 y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1 xx, yy = np.meshgrid(np.arange(x_min, x_max, plot_step), np.arange(y_min, y_max, plot_step)) Z = clf.predict(np.c_[xx.ravel(), yy.ravel()]) Z = Z.reshape(xx.shape) cs = plt.contourf(xx, yy, Z, cmap=plt.cm.Paired) plt.xlabel(iris.feature_names[pair[0]]) plt.ylabel(iris.feature_names[pair[1]]) plt.axis("tight") # Plot the training points for i, color in zip(range(n_classes), plot_colors): idx = np.where(y == i) plt.scatter(X[idx, 0], X[idx, 1], c=color, label=iris.target_names[i], cmap=plt.cm.Paired) plt.axis("tight") plt.suptitle("Decision surface of a decision tree using paired features") plt.legend() plt.show()输出如下所示:
‘‘‘ 生成可视化训练好的决策树 详见:http://scikit-learn.org/stable/modules/tree.html ‘‘‘ from sklearn.externals.six import StringIO from sklearn.tree import export_graphviz with open("iris.dot", ‘w‘) as f: f = export_graphviz(clf, out_file=f) import pydotplus from sklearn import tree dot_data = tree.export_graphviz(clf, out_file=None) graph = pydotplus.graph_from_dot_data(dot_data) graph.write_pdf("iris.pdf") from IPython.display import Image from sklearn import tree import pydotplus dot_data = tree.export_graphviz(clf, out_file="tree.dot", feature_names=iris.feature_names, class_names=iris.target_names, filled=True, rounded=True, special_characters=True) graph = pydotplus.graph_from_dot_data(dot_data) Image(graph.create_png())
其中iris.dot数据如下所示:
digraph Tree { node [shape=box] ; 0 [label="X[2] <= 2.6\ngini = 0.6667\nsamples = 120\nvalue = [40, 40, 40]"] ; 1 [label="gini = 0.0\nsamples = 40\nvalue = [40, 0, 0]"] ; 0 -> 1 [labeldistance=2.5, labelangle=45, headlabel="True"] ; 2 [label="X[3] <= 1.75\ngini = 0.5\nsamples = 80\nvalue = [0, 40, 40]"] ; 0 -> 2 [labeldistance=2.5, labelangle=-45, headlabel="False"] ; 3 [label="X[2] <= 4.95\ngini = 0.2014\nsamples = 44\nvalue = [0, 39, 5]"] ; 2 -> 3 ; 4 [label="X[3] <= 1.65\ngini = 0.0512\nsamples = 38\nvalue = [0, 37, 1]"] ; 3 -> 4 ; 5 [label="gini = 0.0\nsamples = 37\nvalue = [0, 37, 0]"] ; 4 -> 5 ; 6 [label="gini = 0.0\nsamples = 1\nvalue = [0, 0, 1]"] ; 4 -> 6 ; 7 [label="X[3] <= 1.55\ngini = 0.4444\nsamples = 6\nvalue = [0, 2, 4]"] ; 3 -> 7 ; 8 [label="gini = 0.0\nsamples = 3\nvalue = [0, 0, 3]"] ; 7 -> 8 ; 9 [label="X[0] <= 6.95\ngini = 0.4444\nsamples = 3\nvalue = [0, 2, 1]"] ; 7 -> 9 ; 10 [label="gini = 0.0\nsamples = 2\nvalue = [0, 2, 0]"] ; 9 -> 10 ; 11 [label="gini = 0.0\nsamples = 1\nvalue = [0, 0, 1]"] ; 9 -> 11 ; 12 [label="X[2] <= 4.85\ngini = 0.054\nsamples = 36\nvalue = [0, 1, 35]"] ; 2 -> 12 ; 13 [label="X[1] <= 3.1\ngini = 0.4444\nsamples = 3\nvalue = [0, 1, 2]"] ; 12 -> 13 ; 14 [label="gini = 0.0\nsamples = 2\nvalue = [0, 0, 2]"] ; 13 -> 14 ; 15 [label="gini = 0.0\nsamples = 1\nvalue = [0, 1, 0]"] ; 13 -> 15 ; 16 [label="gini = 0.0\nsamples = 33\nvalue = [0, 0, 33]"] ; 12 -> 16 ; }
想生成如下图,希望后面能修改。也可以进入shell下输入命令:
$ sudo apt-get install graphviz $ dot -Tpng iris.dot -o tree.png # 生成png图片 $ dot -Tpdf iris.dot -o tree.pdf # 生成pdf
最后文章对你有所帮助,上课内容还需要继续探索,但enjoy myself~
(By:Eastmount 2016-10-15 中午1点半 http://blog.csdn.net/eastmount/ )
【Python数据挖掘课程】四.决策树DTC数据分析及鸢尾数据集分析
标签:
原文地址:http://blog.csdn.net/eastmount/article/details/52820400