码迷,mamicode.com
首页 > 系统相关 > 详细

机器学习之支持向量机(Support Vector Machine)(更新中...)

时间:2017-09-17 20:58:45      阅读:318      评论:0      收藏:0      [点我收藏+]

标签:image   ima   基本   min   拉格朗日乘子   数据线   基础   lin   ctr   

支持向量机

  支持向量机(support vector machines,SVMs)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;支持向量机还包括核技巧,这使它成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划(convex quadratic programming)的问题。

  支持向量机学习方法包含构建由简至繁的模型:线性可分支持向量机(linear support vector machine in linearly separable case)、线性支持向量机(linear support vector machine)及非线性支持向量机(non-linear support vector machine)。简单模型是复杂模型的基础,也是复杂模型的特殊情况。当训练数据线性可分时,通过硬间隔最大化(hard margin maximization),学习一个线性的分类器,即线性可分支持向量机,又称为硬间隔支持向量机;当训练数据近似线性可分时,通过软间隔最大化(soft margin maximization),也学习一个线性的分类器,即线性支持向量机,又称为软间隔支持向量机;当训练数据线性不可分时,通过使用核技巧(kernel trick)及软间隔最大化,学习非线性支持向量机。通过使用核函数可以学习非线性支持向量机,等价于隐式地在高维的特征空间中学习线性支持向量机。核方法(kernel method)是比支持向量机更为一般的机器学习方法。

线性可分支持向量机与硬间隔最大化

  支持向量机的学习是在特征空间进行的。假设给定一个特征空间上的训练数据集技术分享,其中,技术分享技术分享为第i个特征向量,也称为实例,技术分享技术分享的类标记,当技术分享=+1时,称技术分享为正例;当技术分享=-1时,称技术分享为负例,技术分享称为样本点。再假设训练数据集是线性可分的。

  学习的目标实在特征空间中寻找一个分离超平面,能将实例分到不同的类。分离超平面对应于方程技术分享,它由法向量技术分享和截距技术分享决定,可用技术分享来表示。

  一般地,当训练数据集线性可分时,存在无穷个分离超平面可将两类数据正确分开。线性可分支持向量机利用间隔最大化求最优分离超平面,这时,解是唯一的。

  定义线性可分支持向量机)给定线性可分训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分离超平面为:

技术分享

以及相应的分类决策函数技术分享称为线性可分支持向量机。

  算法线性可分支持向量机学习算法——最大间隔法

    输入:线性可分训练数据集技术分享,其中,技术分享技术分享技术分享

    输出:最大间隔分离超平面和分类决策函数。

    (1)构造并求解约束最优化问题:

          技术分享

          技术分享  技术分享技术分享

    求得最优解技术分享技术分享

    (2)由此得到分离超平面:

          技术分享

    分类决策函数

          技术分享

  在线性可分情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量(support vector)。支持向量是使约束条件等号成立的点,即

          技术分享

  对技术分享的正例点,支持向量在超平面技术分享上,

  对技术分享的负例点,支持向量在超平面技术分享上。

  技术分享技术分享称为间隔边界。

  在决定分离超平面时只有支持向量起作用,而其他实例点并不起作用。

 

  那么,上述算法中的技术分享技术分享是怎么得到的呢?

  想要求解线性可分支持向量机的最优化问题,将它作为原始最优化问题,应用拉格朗日对偶性,通过求解对偶问题(dual problem)得到原始问题(primal problem)的最优解,这就是线性可分支持向量机的对偶算法(dual problem)。这样做的有点,一是对偶问题往往更容易求解;二是自然引入核函数,进而推广到非线性分类问题。

  首先构建拉格朗日函数(Lagrange function)。为此,对每一个不等式约束引进拉格朗日乘子(Lagrange multiplier)技术分享技术分享,定义拉格朗日函数:

        技术分享

  其中,技术分享为拉格朗日乘子向量。

  根据拉格朗日对偶性,原始问题的对偶问题是极大极小问题:

        技术分享

  所以,为了得到对偶问题的解,需要先求技术分享对w,b的极小,再求对技术分享的极大。

  (1)求技术分享

    将拉格朗日函数技术分享分别对w,b求偏导数并令其等于0。

        技术分享

        技术分享

    得

        技术分享

        技术分享

    将上述两式带入拉格朗日函数,即得

 

        技术分享技术分享

             技术分享

    即

        技术分享

  (2)求技术分享技术分享的极大,即是对偶问题

        技术分享

        技术分享  技术分享

        技术分享,i=1,2,...,N

   将上述目标函数由极大转换成极小,就得到下面与之等价的对偶最优化问题:

        技术分享

        技术分享  技术分享

        技术分享,i=1,2,...,N

  设技术分享是对偶最优化问题的解,则存在下标j,使得技术分享,并可按下式求得原始最优化问题的解技术分享技术分享

        技术分享

        技术分享

 

 

 

机器学习之支持向量机(Support Vector Machine)(更新中...)

标签:image   ima   基本   min   拉格朗日乘子   数据线   基础   lin   ctr   

原文地址:http://www.cnblogs.com/Peyton-Li/p/7536927.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!