一 、朴素贝叶斯算法概述 前面我们讲过KNN分类算法和决策树分类算法,两者最终都是预测出实例的确定的分类结果,但是,有时候分类器会产生错误结果;本章要学的朴素贝叶斯分类算法则是给出一个最优的猜测结果,同时给出猜测的概率估计值。 朴素贝叶斯对一个测试样本分类时,通过比较p(y=0|x)和p(y=1|x ...
分类:
其他好文 时间:
2018-02-12 13:46:49
阅读次数:
173
Python实现Knn算法 关键词:KNN、K-近邻(KNN)算法、欧氏距离、曼哈顿距离 KNN是通过测量不同特征值之间的距离进行分类。它的的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法 ...
分类:
编程语言 时间:
2018-02-11 18:05:01
阅读次数:
192
1.C4.5算法 2. k 均值聚类算法 3.支持向量机 4. Apriori 关联算法 5.EM 最大期望算法 Expectation Maximization 6、PageRank 算法 7、AdaBoost 迭代算法 8、kNN 算法 9、朴素贝叶斯算法 10、CART 分类算法。 1.C4. ...
分类:
编程语言 时间:
2018-02-05 10:40:41
阅读次数:
263
近在学习《机器学习实战》这本书,做了一些笔记,和大家分享下: 一 、K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类。但是怎么可能所有测试对象都会找到与之完全匹配的训练对象呢,其次就是存在一个 ...
分类:
编程语言 时间:
2018-02-03 16:15:53
阅读次数:
211
最近邻分类 概念讲解 我们使用的是scikit learn 库中的neighbors.KNeighborsClassifier 来实行KNN. n_neighbors 是用来确定多数投票规则里的K值,也就是在点的周围选取K个值最为总体范围 weights : 这个参数很有意思,它的作用是在进行分类判 ...
分类:
编程语言 时间:
2018-01-28 19:06:57
阅读次数:
536
特征:样本的属性。比如:西瓜的颜色、瓜蒂的形状、敲击的声音就是特征 标签:样本的类别。比如:好瓜”和“坏瓜”这两个判断就是标签 一、介绍 KNN分类算法,是理论比较成熟,最简单的机器学习算法之一,既可用于分类,又可应用于回归 核心思想:计算一个样本在特征空间中的k个最相邻的样本,k个样本大多数属于某 ...
分类:
编程语言 时间:
2018-01-23 20:44:25
阅读次数:
210
一、算法概述1、kNN算法又称为k近邻分类(k-nearest neighbor classification)算法。最简单平凡的分类器也许是那种死记硬背式的分类器,记住所有的训练数据,对于新的数据则直接和训练数据匹配,如果存在相同属性的训练数据,则直接用它的分类来作为新数据的分类。这种方式有一个明 ...
分类:
编程语言 时间:
2018-01-15 22:38:09
阅读次数:
178
k-近邻算法 概述:k-近邻算法採用測量不同特征值之间的距离方法进行分类 长处:精度高、对于异常值不敏感。无数据输入假定 缺点:计算复杂度高,空间复杂度高,而且它没有办法各处基础数据的一些内部信息数据。 算法描写叙述:存在一个准确的数据集合样本。称作训练样本集,样本集合中每一个item都附带自己所属 ...
分类:
编程语言 时间:
2018-01-15 20:20:18
阅读次数:
221
from numpy import *import operatorfrom os import listdir#从列方向扩展#tile(a,(size,1))def knn(k,testdata,traindata,labels): traindatasize=traindata.shape[0] ...
分类:
编程语言 时间:
2018-01-15 15:29:34
阅读次数:
171
KNN与Kmeans感觉没啥联系,但是名字挺像的,就拿来一起总结一下吧。 初学者的总结。 KNN是监督学习,Kmeans是无监督学习。 KNN用于分类,Kmeans用于聚类。 先说KNN: 对于KNN,有一批已经标注好label的训练样本,将这批样本的数据转换为向量表示,然后选择度量向量距离的方式。 ...
分类:
编程语言 时间:
2018-01-10 11:31:08
阅读次数:
252