码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习基石笔记12——机器可以怎样学习(4)

时间:2017-12-25 00:48:34      阅读:319      评论:0      收藏:0      [点我收藏+]

标签:是什么   原因   替换   朋友   nsf   near   http   png   证明   

Lecture 12: Nonlinear Transformation

12.1 Quadratic Hypothesis

      现在我们碰到一个新的问题,如何来给如图 12-1 所示的线性不可分数据做分类? 我们之前只学过 linear classification 和 linear regression 。没有学过 nonlinear 算法。

技术分享图片

   图 12-1  线性不可分数据集

图 12-1 所示的数据可以用用圆(椭圆也可以)分开, 如图 12-2 所示

技术分享图片

          图 12-2 

$$h_{SEP}(x) = sign(-x_{1}^2 - x_{2}^2 + 0.6 ) $$

公式 12-1 等于是将线性不可分的数据集映射成一个线性可分的数据集,如图 12-3 所示

技术分享图片

                                      图 12-3

 

  将 feature 映射到 z space, 可以解决 "任何" 形状分类问题。 还是有个问题,我怎么知道有 xn 的阶数?如果不知道 xn 的阶数,后续的计算又该怎么算呢?目前我们只知道在 x space 的数据,但是到 z space 数据以及 z space 的相关参数                                           

12.2 Nonlinear Transform

技术分享图片

                                                  图 12-4 

 

线性转换步骤如图 12-5 所示, 但是问题的是如何求出映射函数?

技术分享图片

                              图 12-5

 

自从有了 feature transformation, 就等于打开 pandora box。 所有算法都可以和 feature transformation 组合!!!

在第三讲就使用 feature transformation ,不过当时没有意识它的意义。

12.3 Price of Nonlinear Transform

使用 feature transformation 能把 Ein 降的很低,这固然很好。但是 feature transformation 不是没有问题

技术分享图片

                                     图 12-6 大的计算和储存代价

 

技术分享图片

                                   图 12-7  很大的自由度

 

计算和存储代价变大,自由度变大(回忆之前章节中关于自由度的讨论)。自由度变大就意味可调参数过多,容易过拟合就像图 12-8 所示

技术分享图片

                                                图 12-8  泛化误差

现在有个问题,我们怎么知道该不该使用 feature transformation ? 对图 12-2 所示的数据集,我们似乎可以用眼睛去判断该不该用 feature transfromatin。但是对于更高维的,就没有好的办法。 

事实上,我们不能用眼睛去做判断? 因为你用 brain 处理有限的采样数据。这个不能推广到更多的采样数据,这样会踩雷的(没认真听,感觉是应该是这样的)

12.4 Structured Hypothesis Sets

本节来讨论一个 hypothesis set 的有趣性质,看图说话

技术分享图片

                                                      图 12-9 

技术分享图片

                                                       图 12-10

技术分享图片

                                                           图 12-11   

 

最后,放上老朋友图 12-12

技术分享图片

                           图 12-12

 

将本节理论应用于神经网络会怎么样?

 

题外话:

   1. 如何计算 Nonlinear 的 VC Dimension ?

   2. 潜意识中总认为 Nonlinear 的泛化误差要比 Linear 的要大,这个该怎么克服呢?

   3. 你觉得本节 nonlinear transform 给你最大的启示是什么?

算法有一套数学公式做证明的, 应该是可以将数学公式 linear 部分用 nonlinear 来替换(这只是一种启示,不是真的可以简单、机械地做替换就可以的)。初学算法时,会用简单的线性算法来入门。这是因为线性算法简单,比较好解释(比如可以画图解释,有的还有几何意义解释如 linear regression)。我觉得不该将线性和非线性这两个概念对立起来, 而是不看具体的数学表达式而是关注更加内涵的东西。 不要太关注这些表像,要关注数学上的东西。没法说清楚~~~,希望我自己别忘了那种感觉

   4. x space to  z space 称之为 feature tranformation, 后续 《技法》课程就是围绕着 feature transformation 展开的。 为什么要 map x-space to z-space ?

   5. VC Dimesion 相关章节还算是偏理论,现在这些内容给我的感觉还是偏技法? 是要用这些章节来引出某些重要的概念? 还是有其它的原因?

   

           

机器学习基石笔记12——机器可以怎样学习(4)

标签:是什么   原因   替换   朋友   nsf   near   http   png   证明   

原文地址:http://www.cnblogs.com/tmortred/p/8099385.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!