标签:state imp core rom 数据集 根据 ash div 使用
1.理解分类与监督学习、聚类与无监督学习。
简述分类与聚类的联系与区别。
联系:分类与聚类都是在数据集中寻找离自己最近的点
区别:分类是一种有监督学习,目的是为了确定点的类别,而类别是已知的;聚类是一种无监督学习,目的是将点分为成若干个类,事先是没有类别的。
简述什么是监督学习与无监督学习。
监督学习:在监督学习中的数据是带有标签的,知道输入和输出结果之间的关系,通过训练得到一个最优的模型
无监督学习:在无监督学习中数据是没有标签·的,不清楚数据、特征之间的关系,比起监督学习,无监督学习更像是让机器学会自己做事,自学
2.朴素贝叶斯分类算法 实例
利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。
有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数
目标分类变量疾病:
–心梗
–不稳定性心绞痛
新的实例:–(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)
最可能是哪个疾病?
上传手工演算过程。
|
性别 |
年龄 |
KILLP |
饮酒 |
吸烟 |
住院天数 |
疾病 |
1 |
男 |
>80 |
1 |
是 |
是 |
7-14 |
心梗 |
2 |
女 |
70-80 |
2 |
否 |
是 |
<7 |
心梗 |
3 |
女 |
70-81 |
1 |
否 |
否 |
<7 |
不稳定性心绞痛 |
4 |
女 |
<70 |
1 |
否 |
是 |
>14 |
心梗 |
5 |
男 |
70-80 |
2 |
是 |
是 |
7-14 |
心梗 |
6 |
女 |
>80 |
2 |
否 |
否 |
7-14 |
心梗 |
7 |
男 |
70-80 |
1 |
否 |
否 |
7-14 |
心梗 |
8 |
女 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
9 |
女 |
70-80 |
1 |
否 |
否 |
<7 |
心梗 |
10 |
男 |
<70 |
1 |
否 |
否 |
7-14 |
心梗 |
11 |
女 |
>80 |
3 |
否 |
是 |
<7 |
心梗 |
12 |
女 |
70-80 |
1 |
否 |
是 |
7-14 |
心梗 |
13 |
女 |
>80 |
3 |
否 |
是 |
7-14 |
不稳定性心绞痛 |
14 |
男 |
70-80 |
3 |
是 |
是 |
>14 |
不稳定性心绞痛 |
15 |
女 |
<70 |
3 |
否 |
否 |
<7 |
心梗 |
16 |
男 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
17 |
男 |
<70 |
1 |
是 |
是 |
7-14 |
心梗 |
18 |
女 |
70-80 |
1 |
否 |
否 |
>14 |
心梗 |
19 |
男 |
70-80 |
2 |
否 |
否 |
7-14 |
心梗 |
20 |
女 |
<70 |
3 |
否 |
否 |
<7 |
不稳定性心绞痛 |
设置发生心梗的概率为X 设置发生不稳定性心绞痛为Y 设置发生(性别=‘男’,年龄<70, KILLP=‘I‘,饮酒=‘是’,吸烟≈‘是”,住院天数<7)的为Z P(X)=16/20 P(男|X)=7/16 P(年龄<70|X)= 1/4 P(KILLP=I|X)= 9/16 P(饮酒|X)= 3/16 P(吸烟|X)= 7/16 P(住院天数<7|X)= 1/4 P(Y)=4/20 P(男|Y)=1/4 P(年龄<70|Y)= 1/4 P(KILLP=I|Y)= 1/4 P(饮酒|Y)= 1/4 P(吸烟|Y)= 1/2 P(住院天数<7|Y)= 1/2 P(Z)=8/20 * 5/20 * 10/20 * 4/20 * 9/20 * 6/20=54/40000 根据贝叶斯公式 P(X|Z)=P(Z|X)P(X)/P(Z) =((7/16 * 4/16 * 9/16 * 3/16 * 7/16 * 4/16) * 16/20) / (54/40000) ≈75% 同理 P(Y|Z)=P(Z|Y)P(Y)/P(Z) =((1/4 * 1/4 * 1/4 * 1/4 * 1/2 * 1/2) *4/20)/ (54/40000) ≈15% P(X|Z)>P(Y|Z) 故应该为心梗
3.使用朴素贝叶斯模型对iris数据集进行花分类。
尝试使用3种不同类型的朴素贝叶斯:
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split,cross_val_score from sklearn.naive_bayes import GaussianNB,MultinomialNB,BernoulliNB from sklearn import metrics #数据处理 data=load_iris() x = data[‘data‘] y = data[‘target‘] x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3,random_state=5) #高斯分布型 gnb=GaussianNB() gnb.fit(x_train,y_train) print("----------------高斯分布型------------------") print(‘准确率指标:‘,metrics.accuracy_score(y_test,gnb.predict(x_test))) print(‘交叉验证后:‘,cross_val_score(gnb,x_test,y_test,cv=10).mean()) print("----------------多项式型------------------") mnb=MultinomialNB() mnb.fit(x_train,y_train) print(‘准确率指标:‘,metrics.accuracy_score(y_test,mnb.predict(x_test))) print(‘交叉验证后:‘,cross_val_score(mnb,x_test,y_test,cv=10).mean()) print("----------------伯努利型------------------") bnb=BernoulliNB() bnb.fit(x_train,y_train) print(‘准确率指标:‘,metrics.accuracy_score(y_test,bnb.predict(x_test))) print(‘交叉验证后:‘,cross_val_score(bnb,x_test,y_test,cv=10).mean())
标签:state imp core rom 数据集 根据 ash div 使用
原文地址:https://www.cnblogs.com/renshenbenzuig/p/12876857.html