码迷,mamicode.com
首页 > 系统相关 > 详细

Machine Learning Techniques -1-Linear Support Vector Machine

时间:2015-08-20 22:30:38      阅读:168      评论:0      收藏:0      [点我收藏+]

标签:

1-Linear Support Vector Machine

技术分享

技术分享

我们将这种定义为margin,则之前判断最优划分的问题转化为寻找最大margain的问题。

对于待选的几个w所表示的线,问题转化成利用对应w比较相对距离的问题。

技术分享

此时定义w为方向向量,b为之前的w0,即bia。

由于w就是所求点到直线的法线方向,问题转化为求投影的问题。

技术分享

技术分享

因为每个点对应符号yn只有在和距离表示的绝对值内部符号为+的时候才说明划分正确,所以可以乘上yn来去除abs()

技术分享

这里的距离是一种容忍度,所以我们选其中最近的那个。

因为我们是最主要的目的是选择b和w使得定性最短,所以我们可以把margin整体进行放缩,而不影响最值选取点。

这里,令后半部分乘积为1,则目标的最值讨论变为对1/||w|| 的讨论,问题得以简化。

然而,yn(xTxn+b) = 1 是一个很强的约束条件,这里将其放松为>=1。

这部分略过一些极值点可取的讨论。

技术分享

这里又用了一个很tricky的常见技巧,把最大化问题转化为最小化其倒数的方法,然后去除根号,并为了后边的处理加上常数0.5:

技术分享

P.S. 1/sqrt(2)*[(1,1)T · (3,0) + (-1)] for EX.

有了这个选择的工具,我们引出SVM,即那些可以达到对应最值得点(向量),把它们定义为支持向量机。

技术分享

luckily, 这是一个二次规划的问题,已经有了可行的求解工具,所以我们现在把它转化为标准形式,
左边是我们要求的,右边是标准形式:
技术分享另外的一些情况:比如遇到非线性问题,可以先利用映射转化为线性,另外上边讨论的为所谓hard-margin,是完全可分的线。
zn = (xn)—remember? :-) Z空间的转化, 后边直接用Z进行了代换

如果把这个和MLF课程中的Regularization进行比较,其实都是对wTw进行了一些约束:
技术分享本质是是相似的。
另外一种理解:如果我们把SVM中的约束看成一种筛选的算法,对于一个平面的若干点,
有可能一些margin不符合条件的划分方法会被忽略,那么,这实际上是降低了这个问题的VC维,这也是一种问题的优化方向。
技术分享

加了M > 1.126 的条件,相比于PLA则获得了更好的泛化性能。

以一个圆中点为例,有些划分情况在这个约束中无法达到,则我们得到了一个小于Dvc的新upper bound, 这部分约束的产生是和资料本身有关的。

技术分享

这样,我们解决了一个模型复杂度要大和假设数量要少的矛盾问题:

技术分享

接下来,我们将讨论非线性的SVM。

Machine Learning Techniques -1-Linear Support Vector Machine

标签:

原文地址:http://www.cnblogs.com/windniu/p/4746299.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!