码迷,mamicode.com
首页 > 其他好文 > 详细

逻辑回归(logistic回归)

时间:2017-08-26 15:04:31      阅读:124      评论:0      收藏:0      [点我收藏+]

标签:src   ros   使用方法   线性回归   ack   文字   技术   错误   预测   

前言

           以下内容是个人学习之后的感悟,如果有错误之处,还请多多包涵~

 

 

逻辑回归

一、为什么使用logistic回归

    一般来说,回归不用在分类问题上,因为回归是连续型模型,而且受噪声影响比较大。    

      Why?  为什么回归一般不用在分类上?其实,很多初学者都会提出这个问题。然而,文字的解释往往不能说服我们,接下来

用图示的方式为大家讲解。

       以最简单的分类为例,当y≥0.5时,输出“1”;当y<0.5时,输出“0”。下面左图,数据样本较好,线性回归模型在y=0.5处的橘色分界线刚好在

“0”、“1”两类样本的分界线处,完美地完成分类。然而,现实情况往往没有这么乐观,下面有图中出现了一个额外的样本,所谓

的噪声点,会使训练完毕的线性回归模型准确度变差。从右图中可以做直观地看到,线性回归模型在y=0.5处的粉色分界线将一个“1”类样本分类到了

“0”类样本集中,此时就出现了判断失误。

技术分享技术分享

        所以线性回归一般不用在分类问题上,如果非要用于分类,可以使用logistic回归。

        逻辑回归为什么可以用在分类上?why?

        原因很简单,逻辑回归本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,即先把特征线性求和θTx,设为z,然后使用函

g(z)作为假设函数来预测。g(z)可以将连续值映射到0和1上。如下图所示,当z≥0时,输出为1;当z<0时,输出为0。这样可以实现很好的分类。

具体实现请看下文~

                                                                技术分享

 

二、logistic回归

  • 假设函数:

                                  技术分享

  • 初始代价函数:

                                 技术分享   

                                 (细心的童鞋会发现,这里的代价函数与线性回归模型中的J(θ0,θ1)不一样,其实就是整体误差和平均误差的区别。

                                  显然,由于S型函数的存在,代价函数是非凸函数,无法使用梯度下降法来求极小值。这就需要转换为下面的简易代价函数。

  • 简易代价函数:

                                  说实话,这一步,我也不知道是怎么推导的,有哪位大神知道的话,请不吝赐教~

                                  技术分享

           然而,要想使用梯度下降法,还需要转换为J(θ)代价函数

  • J(θ)代价函数(凸函数):

                                  技术分享

  • 使用方法:

                  1、采用梯度下降法,不断迭代下列公式,直到收敛,求出θ。

                  技术分享技术分享技术分享

 

                        2、判断θTx的大小来分类。

                        “y=1”,当θTx≥0

                        “y=0”,当θTx<0

                   (很容易发现θTx=0是分类的决策边界

 

 

以上是全部内容,如果有什么地方不对,请在下面留言,谢谢~

逻辑回归(logistic回归)

标签:src   ros   使用方法   线性回归   ack   文字   技术   错误   预测   

原文地址:http://www.cnblogs.com/steed/p/7435208.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!