标签:复杂度 dal 注意 优势 优先级队列 数据 接下来 分享图片 模型
我们之所以要了解算法,不仅仅有利于和算法同学的沟通,更能深入的理解人工智能为产品赋能的过程,只有将这个过程了解透彻,才能清晰明确的把握产品的方向,挖掘产品的亮点。
那么,今天我们就从一个最为简单、易懂的“k-近邻(KNN)算法”聊起,KNN属于监督学习算法,即可以用于分类,也可以用于回归,后续还会逐步为大家介绍一些常用的其他算法。
KNN的核心思想可以用一句俗语表达:“物以类聚、人以群分”,想了解一个人,可以看他交什么样的朋友。即它的核心思想是:如果一个样本在特征空间中的k个最相邻的样本(距离最近的样本)中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
这里面提及的距离,一般可以选用欧氏距离、曼哈顿距离、闵式距离等等公式进行计算,对于我们初步了解的产品经理来讲,就不上各种公式了。
我们用这个图做一个简单的介绍,蓝色方形(用B标识)和红色三角(R)代表两个不同的分类,绿色圆形(C)是待分类样本,根据KNN的思想,如果K=3,则C的最近邻有1B、2R,根据少数服从多数原则,C应该属于“R”的类型。如果k=5呢?C的最近邻有3B、2R,C是不是应该属于“B”类型了呢?
其中判定类别也有两种方法:
看到这儿,是不是有不少小伙伴产生了疑问,那该如何选择K值呢?K值的大小又将如何影响模型的效果呢?
关于K值的选择,需要注意:
经验规则:k一般低于训练样本数的平方根,通常采用交叉检验来确定。
接下来我们简单介绍一下训练过程,有如下几步:
基本概念和训练过程我们都简单的介绍清楚了,下面来讲讲K近邻的优势及缺陷。
优势:
缺点:
了解了算法的优势和局限性,下面就要了解一下它的适用领域了:
标签:复杂度 dal 注意 优势 优先级队列 数据 接下来 分享图片 模型
原文地址:https://www.cnblogs.com/chuangye95/p/10192896.html