标签:判断 输入 错误 根据 形式 部分 角度 alt sep
一、Perceptron Hypothesis Set
例子: 银行要决定是否给使用者发信用卡。 可以将每一个使用者的各种信息作为一个向量,每一个维度使用$x_i$来表示,给每个不同特征给予不同的权重,将加权值的和作为输出,设置一个阈值,如果超过阈值,那么就输出1,如果小于阈值,就输出-1. 我们输入的x是向量,那么我们使用$w_i$向量。并且将threshold也作为$w_i$来简化运算过程 我们绘制一个二维图像来描述。圈代表1,叉代表-1,表示y的值。x只有两个维度的情况可以简单地画出来。这时的h(x)用一条直线将平面分成了两个部分,一部分为h(x)=1,另一部分为h(x)=?1。每个h都对应了一种分割方式。 那么,我们所说的Perceptron,实际上上就是一条直线,我们称之为linear(binary) classifiers(线性分类器)。在更高维度中,同样支持。 同时,需要注意的是,这里所说的linear(binary) classifiers是用简单的感知器模型建立的,线性分类问题还可以使用logistic regression来解决,后面将会介绍。二、Perceptron Learning Algorithm(PLA)
根据上一部分的介绍,我们已经知道了hypothesis set由许多条直线构成。我们希望将所有的正类和负类完全分开,也就是找到最好的g,使$g\approx f$。 但是这样是很困难的,因为我们的f是未知的,我一我们可以将问题转化为找到最好的f。 我们有无限多条线,但是我们可以选择一条线,然后逐步修正,逼近最好答案。 我们使用$w_i(i=0)$作为初始的线 循环下面操作:
用错误的线做内积运算
计算w与x内积,即|w||x|cos<w,x>,作用在sign()函数上只有cos起作用,即夹角。
下面介绍一下PLA是怎么做的。首先随机选择一条直线进行分类。然后找到第一个分类错误的点,如果这个点表示正类,被误分为负类,即$w_t^Tx_{n(t)}<0$,那表示w和x夹角大于90度,其中w是直线的法向量。所以,x被误分在直线的下侧(相对于法向量,法向量的方向即为正类所在的一侧),修正的方法就是使w和x夹角小于90度。通常做法是$w\leftarrow w+yx,\ y=1$,如图右上角所示,一次或多次更新后的$w+yx$与x夹角小于90度,能保证x位于直线的上侧,则对误分为负类的错误点完成了直线修正。 如果是误分为正类的点,即$w_t^Tx_{n(t)}>0$,那表示w和x夹角小于90度,其中w是直线的法向量。所以,x被误分在直线的上侧,修正的方法就是使w和x夹角大于90度。通常做法是$w\leftarrow w+yx,\ y=-1$,如图右下角所示,一次或多次更新后的$w+yx$与x夹角大于90度,能保证x位于直线的下侧,则对误分为正类的错误点也完成了直线修正。 遇到个错误点就进行修正,不断迭代。要注意一点:每次修正直线,可能使之前分类正确的点变成错误点,但是只要不断进行迭代,对于线性分类模型,最后总会找到的一个合适的直线能够刚好分开。 实际操作中,可以一个点一个点地遍历,发现分类错误的点就进行修正,直到所有点全部分类正确。这种被称为Cyclic PLA。 下面用图解的形式来介绍PLA的修正过程: 红线代表$w^T$表示分割线$w$的法线,正方向为法方向。 问题:
(机器学习基石)Perceptron Learning Algorithm(PLA)
标签:判断 输入 错误 根据 形式 部分 角度 alt sep
原文地址:https://www.cnblogs.com/upcwsh/p/12374072.html