码迷,mamicode.com
首页 > 编程语言 > 详细

七月算法--12月机器学习在线班-第十二次课笔记—支持向量机(SVM)

时间:2016-05-13 14:39:09      阅读:155      评论:0      收藏:0      [点我收藏+]

标签:

七月算法-12月机器学习在线班--第十二次课笔记—支持向量机(SVM)

七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com

?

复习的内容:

  1. 对偶问题

    技术分享

  2. KKT条件

    技术分享

    ?

SVM

1.1三类数据类型

  1. 线性可分支持向量机
  2. 线性支持向量机
  3. 非线性支持向量机

技术分享

?

1.2 线性分类

1.2.1 样本到分类面的距离的意义

点到直线的距离,ABC是归一化的。"+"正类别,"-"负类别

技术分享

因此距离可以直接用AX+BY+c=f(x,y)的函数值表示

技术分享

可以写成如下的向量形式:

技术分享

计算N个样本点到直线距离的最小值,技术分享,之后在这些直线中知道到最大值技术分享

接下来就是计算技术分享

?

1.2.2 输入数据

技术分享

1.2.3 线性可分支持向量机

如图,中3个支撑向量

技术分享

1,函数间隔和几何间隔:

技术分享

,2, 最大间隔分离超平面

目标函数:技术分享

又因为目标函数中括号中的数全部大于等于1,即:

技术分享

所以可以得到新的目标函数和其约束条件如下:

技术分享

则,新的目标函数如下:

技术分享

带不等式约束的凸优化的问题,用拉格朗日乘子法

  1. 原问题是极小极大问题技术分享

    转化成:原始问题的对偶问题,是极大极小问题:技术分享

    拉格朗日乘子法

    技术分享

接下来就去L(w,b,a)的极大值,算法是SMO求技术分享的极大值

求的a=0,不是支撑向量,a是稀疏的,大多数的样本为0

1.3 线性支持向量机(数据线性不可分的)

1, 不一定分类完全正确的超平面就是最好的

2, 如果样本数据本身线性不可分

需要加入松弛因子(技术分享):技术分享

则目标函数就变为:

技术分享

则带松弛因子的SVM拉格朗日函数

技术分享

同样的可以得到对偶函数,转化成求技术分享的极值

技术分享

松弛因子已经被消了,最后求出最优解技术分享,反带回去,求得W,b。

?

损失函数分析:技术分享刚好没有惩罚

技术分享

核函数:

可以使用核函数,将原始输入空间映射到新的特征空间,从而,使得原本线性不可分的样本可能在核空间可分。

高斯核函数RBF,是映射到无穷维度,(利用了泰勒展开),但是容易过拟合。

?

1.3 SVM中系数的求解:SMO(每次只选择两个乘子做)

1,有多个拉格朗日乘子

2,每次只选择其中两个乘子做优化,其他因子认为是常数。

技术分享

?

二变量优化问题

由上述可知,如果技术分享则可得到如下的图:

技术分享

其中LH的对应关系,如图

程序退出的条件是:技术分享,也就是此时不更新权值了。

七月算法--12月机器学习在线班-第十二次课笔记—支持向量机(SVM)

标签:

原文地址:http://www.cnblogs.com/sweet-dew/p/5488053.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!