1.KNN 分类算法 由于knn算法涉及到距离的概念,KNN 算法需要先进行归一化处理 1.1 归一化处理 scaler from sklearn.preprocessing import StandardScaler standardScaler =StandardScaler() standar ...
分类:
编程语言 时间:
2020-06-17 18:37:11
阅读次数:
74
import numpy as npfrom sklearn import datasetsfrom sklearn.neighbors import KNeighborsClassifiernp.random.seed(0)iris = datasets.load_iris()x = iris.d ...
分类:
其他好文 时间:
2020-06-14 22:06:54
阅读次数:
92
1.KNN #knn_nearest_neighbor.py from builtins import range from builtins import object import numpy as np from past.builtins import xrange class KNeare ...
分类:
其他好文 时间:
2020-06-14 15:10:07
阅读次数:
45
1.K近邻算法基础实例 1 import numpy as np 2 import matplotlib.pyplot as plt 3 4 raw_data_X=[[3.9,2.3], 5 [3.1,1.7], 6 [1.3,3.3], 7 [3.5,4.6], 8 [2.2,2.8], 9 [7 ...
分类:
编程语言 时间:
2020-06-03 23:16:38
阅读次数:
93
一、k-近邻算法概述 1、什么是k-近邻算法 如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 2、欧式距离 两个样本的距离可以通过如下公式计算,又叫欧式距离。比方说计算a(a1,a2,a3),b(b1,b2,b3)样本之间的距离: ...
分类:
编程语言 时间:
2020-05-30 00:58:20
阅读次数:
76
存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据 与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据对应的 特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们 只选择样本数据集中前K个最相 ...
分类:
编程语言 时间:
2020-05-21 14:53:03
阅读次数:
56
一、什么是K近邻算法? 定义: 如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 来源: KNN算法最早是由Cover和Hart提出的一种分类算法. 计算距离公式: 两个样本的距离可以通过如下公式计算,又叫欧式距离。 比如说,a(a1 ...
分类:
编程语言 时间:
2020-05-20 12:17:07
阅读次数:
62
1.理解分类与监督学习、聚类与无监督学习。 简述分类与聚类的联系与区别。 联系:都是对数据进行划分的方法 区别:分类就是“贴标签”,在事先已有的类中按这些类的性质来进行划分,要做的就是将每一条记录分别属于哪一类标记出来,常用算法KNN,是一种有监督学习; 聚类是在事先没有类,没有训练条件的情况下,根 ...
分类:
编程语言 时间:
2020-05-12 20:35:39
阅读次数:
90
kNN 基础 import numpy as np import matplotlib.pyplot as plt 实现我们自己的 kNN 创建简单测试用例 raw_data_X = [[3.393533211, 2.331273381], [3.110073483, 1.781539638], [ ...
分类:
其他好文 时间:
2020-05-11 18:53:19
阅读次数:
64
1.理解分类与监督学习、聚类与无监督学习。 简述分类与聚类的联系与区别。 区别: 分类的目的是为确定一个点的类别,具体有哪些类别是已知的,常用算法是KNN,是一种有监督学习。 聚类的目的是将一系列点分为若干类,事先是没有类别的,常用算法是K-Means,是一种无监督学习。 联系: 两种的实现都包含这 ...
分类:
编程语言 时间:
2020-05-10 19:36:50
阅读次数:
70