码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习 1 regression

时间:2017-04-18 10:10:25      阅读:237      评论:0      收藏:0      [点我收藏+]

标签:weight   mod   过程   logs   size   技术分享   ase   linear   toc   

Linear regerssion 线性回归

    回归:

      stock market forecast

       f(过去10年股票起伏的资料) = 明天道琼指数点数

     self driving car

      f(获取的道路图像)= 方向盘角度

      recommendation

     f(使用者A 商品B)= 购买商品可能性

预测妙蛙种子 cp值 combat power

     f( xs ) =cp after evolution

      xs

      xhp

       xw

       xh

    找model

     定义 function set

     

step 1: model

       y = b+ w* xcp  进化前的CP值 

   f1 : y= 10.0+9*xcp

   f2: y= 9.8+9.2*xcp

    f3: y= -0.8-1.2*xcp

   infinite 有很多

 

linear model : y=b+sum(wi*xi)

  xi feature wi weight b bais

step2: goodness of function

   x1 ,   y^1 

   x2 ,   y^2 

      ...

    x10 ,   y^10 

    x 进化前的CP值

    y 进化后的CP值

   xncp  

     损失函数

    L(f)=L(w,b)

      技术分享

使用某个function 的wb 用来计算L

     技术分享

step: best function

    技术分享

gradient descent 

     L(w) w

    w*= arg minwL(w)

  穷举W所有值 ,看计算那个值? 效率低

   可以: 1) 随机选取初始点 W0

             2) 计算 dL/dw| w=w0

           也就是切线的斜率      negative -》 increase w

                                         positive -> decrease w

                 往左边走一步 还是右边走,LOSS会减少?

            stepsize: 却觉于

            1)现在的微分值越大,也就是越陡峭,

            2)还有就是常数项 learning rate

      技术分享

       w1 <- w0- n* dl/dw|w=w0

       w2 <- w1-n*dl/dw|w=w1

       local optimal 会找到局部最小值,而不是global optimal

   如果是两个参数? w*,b* = arg min w,b L(w,b)

     与上面的过程一致

 

有两个参数 w,b 决定了function

      技术分享 

      

    in linear regression ,the loss function L ins convex

    NO local optimal

 

how‘s the results?

  Generalization 泛化性能

 

selecting another model

     y= b+w1*xcp+w2*(xcp)2

有没有可能更复杂的model,

how about more complex model?

在train data上效果是模型越复杂,效果很好,这是因为

越复杂的模型是包括简单的模型

A more complex model yields lower error on training data

但是在test data上效果不一定是。这就是overfitting

技术分享

只考虑进化前的cp值可能还不够,同时需要考虑物种

预测重新设计function Set

技术分享

if xs=pidgey y=b1+w1*xcp

也是线性模型,不同种类的物种,它的model不一样

技术分享

考虑其他的影响因素 用更加复杂的模型

技术分享

已经过拟合了

 

regularization 正则项 ,去解决过拟合,

当W很小,接近0,当输入有变化,output对输入变化不敏感。

输出对输入就不敏感,function 就平滑。如果一个平滑的function

收到噪声影响小。

技术分享

调整b 和function平滑没关系,只是和位置有关系

lamad 越大,考虑训练误差越小

我们希望function平滑,但不能太平滑,调整lamad

 

机器学习 1 regression

标签:weight   mod   过程   logs   size   技术分享   ase   linear   toc   

原文地址:http://www.cnblogs.com/stevendes1/p/6725880.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!