码迷,mamicode.com
首页 > 编程语言 > 详细

最基础的分类算法-k近邻算法 kNN简介及Jupyter基础实现及Python实现

时间:2019-10-25 16:19:01      阅读:135      评论:0      收藏:0      [点我收藏+]

标签:bsp   经验   rgs   python   imp   shape   统计   代码   自己的   

k-Nearest Neighbors简介

技术图片

技术图片

对于该图来说,x轴对应的是肿瘤的大小,y轴对应的是时间,蓝色样本表示恶性肿瘤,红色样本表示良性肿瘤,我们先假设k=3,这个k先不考虑怎么得到,先假设这个k是通过程序员经验得到。

技术图片

 

假设此时来了一个新的样本绿色,我们需要预测该样本的数据是良性还是恶性肿瘤。我们从训练样本中选择k=3个离新绿色样本最近的样本,以选取的样本点自己的结果进行投票,如图投票结果为蓝色:红色=3:0,所以预测绿色样本可能也是恶性肿瘤。

再比如

技术图片

 

此时来了一个新样本,我们选取离该样本最近的三个样本点,根据他们自身的结果进行投票,如图得到蓝色:红色=1:2,那么我们可以预测该绿色样本可能也是良性肿瘤。

基础代码实现

 

 1 #首先导入代码需要的package
 2 import numpy as np
 3 import matplotlib
 4 import matplotlib.pyplot as plt
 5 #此处先使用我们模拟的数据进行算法的入门模拟
 6 #特征点的集合
 7 raw_data_X = [[3.393533211, 2.331273381],
 8               [3.110073483, 1.781539638],
 9               [1.343808831, 3.368360954],
10               [3.582294042, 4.679179110],
11               [2.280362439, 2.866990263],
12               [7.423436942, 4.696522875],
13               [5.745051997, 3.533989803],
14               [9.172168622, 2.511101045],
15               [7.792783481, 3.424088941],
16               [7.939820817, 0.791637231]
17              ] 
18 #0就代表良性肿瘤,1就代表恶性肿瘤
19 raw_data_y = [0, 0, 0, 0, 0, 1, 1, 1, 1, 1] 
20 #我们使用raw_data_X和raw_data_y作为我们的训练集
21 X_train = np.array(raw_data_X)
22 Y_train = np.array(raw_data_y)
23 #此时可以查看两个训练集数据输出显示
24 In[1]: X_train
25 ‘‘‘
26 Out [1]:array([[3.39353321, 2.33127338],
27        [3.11007348, 1.78153964],
28        [1.34380883, 3.36836095],
29        [3.58229404, 4.67917911],
30        [2.28036244, 2.86699026],
31        [7.42343694, 4.69652288],
32        [5.745052  , 3.5339898 ],
33        [9.17216862, 2.51110105],
34        [7.79278348, 3.42408894],
35        [7.93982082, 0.79163723]])
36 ‘‘‘
37 In[2]: Y_train
38 ‘‘‘
39 Out[2]:array([0, 0, 0, 0, 0, 1, 1, 1, 1, 1])
40 ‘‘‘
41 #我们可以尝试绘制原训练集的散点图
42 plt.scatter(X_train[Y_train == 0, 0],X_train[Y_train == 0,1], color = "red")
43 plt.scatter(X_train[Y_train == 1, 0],X_train[Y_train == 1,1], color = "blue")
44 plt.show() #显示该散点图

 

技术图片

 

训练集绘制的散点图如上图所示,红色的散点表示为良性肿瘤的样本,蓝色表示为恶性肿瘤的样本

1 #此时,来了一个新样本数据 x 
2 x = np.array([8.093607318,3.365731514])
3 #将新来的样本点绘入图像中,先绘制原训练集散点图像,再使用绿色表示新样本点进行绘制
4 plt.plot(X_train[Y_train == 0, 0],X_train[Y_train == 0, 1], color = "red")
5 plt.plot(X_train[Y_train == 1, 0],X_train[Y_train == 1, 1], color = "blue")
6 plt.plot(x[0],x[1], color = "green")
7 plt.show()

技术图片

带新样本点绘制的散点图如上图所示

1 #此时我们假设根据程序员经验选取 k = 6
2 k = 6
3 #然后我们需要进行在原训练集中选取k个离新样本点最近的6个样本点
4 #两点之间的距离使用欧拉公式进行计算,

 

技术图片技术图片

 1 #所以根据上图公式我们可以进行计算所有训练集的样本点与新的绿色样本点的距离
 2 #此处需要使用到开平方根,所以导入相应package
 3 from math import sqrt
 4 #使用distances进行存储所有距离值
 5 distances = []
 6 # 因为所有的训练集的X Y 信息都存储在X_train中,所以我们使用for循环进行遍历所有的样本点信息进行计算
 7 for x_train in X_train:
 8     #使用d暂存距离
 9     d = sqrt(np.sum((x_train - x) ** 2))
10     #使用append将距离d存到distances
11     distances.append(d)
12 #上面for循环部分也能够使用列表推导式进行简化代码
13 distances = [sqrt(np.sum((X_train - x) ** 2)) for x_train in X_train]
14 #此时我们能够输出distances的值进行查看一下
15 In[3]: distances
16 Out[3]: [4.812566907609877,
17  5.229270827235305,
18  6.749798999160064,
19  4.6986266144110695,
20  5.83460014556857,
21  1.4900114024329525,
22  2.354574897431513,
23  1.3761132675144652,
24  0.3064319992975,
25  2.5786840957478887]
26 #此时我们的distances里面存储所有的训练样本点与新样本点的距离
27 #因为我们需要找到距离新样本点最近的k(此处k=6)个样本点,所有我们需要对distances进行排序
28 #此处我们使用np.argsort对其进行值的索引的排序,就不会对其值逻辑位置进行影响,使用nearest存储排序后的结果
29 nearest = np.argsort(distances)
30 #找到前6个索引对应的值对应的Y_train的值
31 topk_y = [Y_train[i] for i in nearest[:k]]
32 #此时我们输出topk_y的值
33 In[4]: topk_y
34 Out[4]:[1, 1, 1, 1, 1, 0]
35 #我们能够看到此时对应的topk_y中存储着离新样本点最近的k个训练样本点的结果(0/1  良性肿瘤/恶性肿瘤)
36 #然后我们对结果进行“投票”操作,票数最多的结果作为新样本的预测结果(前面已经介绍)
37 #可以调用Collections包中的Counter方法对topk_y进行唱票统计
38 from Collections import Counter
39 votes = Counter(topk_y)
40 #此时我们能够输出votes的值进行查看
41 In[4]: votes
42 Out[4]: Counter({1: 5, 0: 1})
43 #我们能够使用most_common(vaule)方法进行取最大票数的前value位
44 In[5]: votes.most_common(1)
45 Out[5]: [(1, 5)]
46 #查看该输出我们能够得到
47 predict_y = votes.most_common(1)[0][0]
48 In[6]: predict_y
49 Out[6]: 1
50 #此时kNN算法结束,根据所得到的预测结果,我们能够预测该新的样本可能是恶性肿瘤

 

 Python实现

 1 import numpy as np
 2 from math import sqrt
 3 from collections import Counter
 4 
 5 def kNN_classify(k, X_train, Y_train, x):
 6     assert 1<= k <= X_train.shape[0],"k must be valid"
 7     assert X_train.shape[0] == Y_train.shape[0], 8         "the size of X-train must equal to the size of Y_train"
 9     assert X_train.shape[1] == x.shape[0].10         "the feature number of x must be equal to X_train"
11 
12     distances = [sqrt(np.sum((X_train - x) ** 2)) for x_train in X_train]
13     nearest = np.argsort(distances)
14 
15     topk_y = [Y_train[i] for i in nearest[:k]]
16     votes = Counter(topk_y)
17 
18     return votes.most_common(1)[0][0]

 

 

 

 

最基础的分类算法-k近邻算法 kNN简介及Jupyter基础实现及Python实现

标签:bsp   经验   rgs   python   imp   shape   统计   代码   自己的   

原文地址:https://www.cnblogs.com/Liuyt-61/p/11738399.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!