码迷,mamicode.com
首页 > 其他好文 > 详细

支持向量机——内核

时间:2018-11-03 14:03:35      阅读:222      评论:0      收藏:0      [点我收藏+]

标签:...   支持向量机   参数   计算   没有   内核函数   app   多项式   erb   

对于非线性“Decision Boundary”

技术分享图片

如果用传统的多项式回归,有

\[{h_\theta }\left( x \right) = {\theta _0} + {\theta _1}{x_1} + {\theta _2}{x_2} + {\theta _3}{x_1}{x_2} + {\theta _4}x_1^2 + {\theta _5}x_2^2 +  \cdot  \cdot  \cdot \]

并且,想要

\[{h_\theta }\left( x \right) = \left\{ {\begin{array}{*{20}{c}}
{\begin{array}{*{20}{c}}
1&{{\theta _0} + {\theta _1}{x_1} + \cdot \cdot \cdot \ge 0}
\end{array}}\\
{\begin{array}{*{20}{c}}
0&{{\theta _0} + {\theta _1}{x_1} + \cdot \cdot \cdot < 0}
\end{array}}
\end{array}} \right.\]

这时,把hθ(x)写成如下形式

\[\begin{array}{l}
{h_\theta }\left( x \right) = {\theta _0} + {\theta _1}{f_1} + {\theta _2}{f_2} + {\theta _3}{f_3} + {\theta _4}{f_4} + {\theta _5}{f_5} + \cdot \cdot \cdot \\
{f_1} = {x_1},{f_2} = {x_2},{f_3} = {x_1}{x_2},{f_4} = x_1^2,{f_5} = x_2^2,...
\end{array}\]

那么问题来了,有没有与这些f不同或比现在这些f更好的选择呢?(比“相乘”、“平方”等更好或不同)


 

内核

这里为了方便理解,在给定x的情况下,只计算三个新的特征。

这三个特征是根据三个给定的“landmarks”:l(1),l(2),l(3)计算出来的(“landmarks”如何确定稍后再说)。

技术分享图片

这里假设x只有两个特征x1和x2(这里忽略x0=1)

给出x后,分别计算x与l(1),l(2),l(3)的“similarity”

\[\begin{array}{l}
{f_1} = similarity\left( {x,{l^{\left( 1 \right)}}} \right) = \exp \left( { - \frac{{{{\left\| {x - {l^{\left( 1 \right)}}} \right\|}^2}}}{{2{\sigma ^2}}}} \right)\\
{f_2} = similarity\left( {x,{l^{\left( 2 \right)}}} \right) = \exp \left( { - \frac{{{{\left\| {x - {l^{\left( 2 \right)}}} \right\|}^2}}}{{2{\sigma ^2}}}} \right)\\
{f_3} = similarity\left( {x,{l^{\left( 3 \right)}}} \right) = \exp \left( { - \frac{{{{\left\| {x - {l^{\left( 3 \right)}}} \right\|}^2}}}{{2{\sigma ^2}}}} \right)
\end{array}\]

这里的“similarity”函数就是“内核”,这种内核又称为“高斯内核”。

这个内核函数的作用是什么?

对于

\[{f_1} = similarity\left( {x,{l^{\left( 1 \right)}}} \right) = \exp \left( { - \frac{{{{\left\| {x - {l^{\left( 1 \right)}}} \right\|}^2}}}{{2{\sigma ^2}}}} \right) = \exp \left( { - \frac{{\sum\limits_{j = 1}^n {{{\left( {{x_j} - l_j^{\left( 1 \right)}} \right)}^2}} }}{{2{\sigma ^2}}}} \right)\]

当x≈l(1)时:

\[{f_1} \approx \exp \left( { - \frac{{{0^2}}}{{2{\sigma ^2}}}} \right) \approx 1\]

当x距离l(1)比较远时

 \[{f_1} \approx \exp \left( { - \frac{{l\arg enumbe{r^2}}}{{2{\sigma ^2}}}} \right) \approx 0\]

同理,可以得到x与经过“内核”函数后的结果。

用图比较直观的理解

假设

\[\begin{array}{l}
{l^{\left( 1 \right)}} = \left[ {\begin{array}{*{20}{c}}
3\\
5
\end{array}} \right]\\
{f_1} = \exp \left( { - \frac{{{{\left\| {x - {l^{\left( 1 \right)}}} \right\|}^2}}}{{2{\sigma ^2}}}} \right)
\end{array}\]

当σ2=1时

技术分享图片

内核函数的示意图如图中上半部分,可以看出当x距离l(1)越近,f1越接近于1,越远越接近于0.

而对于不同的σ来说,图形的形状不相同

当σ2=0.5时

技术分享图片

当σ2=3时

技术分享图片

它们的区别在于当x距离l距离变化时f的变化“快慢”不同。


举具体例子

技术分享图片

给出x;给出l(1),l(2),l(3)

支持向量机会计算f1,f2,f3

现假设经过训练后得到的参数值θ0=-0.5,θ1=1,θ2=1,θ3=0。

则当x距离l(1)较近时(图中红点)f1≈1,f2≈0,f3≈0,hθ(x)≈0.5≥0,则预测结果为1

同理当为图中绿点时,预测结果为0;黄点时,预测结果为1.

最终支持向量机会得到如图黑色曲线那样的“Decision Boundary”。


 

如何选定l?

支持向量机会选取所有的样本作为l,也就是如果有m个样本,既有m个l(1),...,l(m)

经过处理后,支持向量机现在的任务是

\[\underbrace {\min }_\theta \left\{ {C\left[ {\sum\limits_{i = 1}^m {{y^{\left( i \right)}}{\mathop{\rm Cos}\nolimits} {t_1}\left( {{\theta ^T}{f^{\left( i \right)}}} \right) + \left( {1 - {y^{\left( i \right)}}} \right){\mathop{\rm Cos}\nolimits} {t_0}\left( {{\theta ^T}{f^{\left( i \right)}}} \right)} } \right] + \frac{1}{2}\sum\limits_{j = 1}^n {\theta _j^2} } \right\}\]


SVM的参数选择

对于C(相当于1/λ):

  • 比较大的C,会出现“低偏差”,“高方差”。这会陷入“过拟合”情况;
  • 比较小的C,会出现“高偏差”,“低方差”,这会陷入“欠拟合”情况。

对于σ2

比较大的σ2,特征f会变化的比较“顺滑”,会出现“高偏差”,“低方差”,这会陷入“欠拟合”情况;

比较小的σ2,特征f会变化的比较“快速”,会出现“低偏差”,“高方差”。这会陷入“过拟合”情况。

 


内核选择

除了高斯内核,还有“线性内核”也就是没有内核(θTx)。

 

支持向量机——内核

标签:...   支持向量机   参数   计算   没有   内核函数   app   多项式   erb   

原文地址:https://www.cnblogs.com/qkloveslife/p/9900278.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!