码迷,mamicode.com
首页 > 其他好文 > 详细

2. Supervised Learning - Logistic Regression

时间:2014-05-19 11:59:01      阅读:391      评论:0      收藏:0      [点我收藏+]

标签:des   style   blog   class   c   ext   

Logistic Regression 逻辑回归

解决问题类型

二分类问题(classification)

Notation

给定一个样本集T

样本总数为m

每个样本记做bubuko.com,布布扣

其中bubuko.com,布布扣为输入变量,也称为特征变量;bubuko.com,布布扣为我们要预测的输出变量,也称为目标变量

bubuko.com,布布扣表示第bubuko.com,布布扣个样本。

bubuko.com,布布扣

Hypothesis

bubuko.com,布布扣的作用是,对于给定的输入变量,根据选择的参数计算输出变量=1的可能性

bubuko.com,布布扣

也就是

bubuko.com,布布扣

最终,当bubuko.com,布布扣大于等于0.5时,预测y=1,当bubuko.com,布布扣小于0.5时,预测y=0

bubuko.com,布布扣

假设bubuko.com,布布扣是一下形式:

bubuko.com,布布扣

其中bubuko.com,布布扣称为Logistic函数或者sigmoid函数,函数图象如下

bubuko.com,布布扣

bubuko.com,布布扣

为什么选择

Logistic函数见下节广义线性模型(Generlized Linear Models)

Logistic函数有如下有趣性质:

bubuko.com,布布扣

下面情况怎么办?

bubuko.com,布布扣

试一下这个:(模型选择一节将进一步研究)

bubuko.com,布布扣

Maximum Likehood Estimate极大似然估计

bubuko.com,布布扣

bubuko.com,布布扣

之后要做的就是

最大化?(θ),?(θ)是凸函数

#1 Gradient descent algorithm 梯度下降算法

梯度下降是解决这种优化问题的通用解法

使用bubuko.com,布布扣更新策略

bubuko.com,布布扣

偶偶,得到和线性回归一样的结果。。别得意,bubuko.com,布布扣是不一样的

最终的更新策略如下:

bubuko.com,布布扣

#2 直接解法。。

对?(θ)求导,令导数等于0。。。。这个式子太复杂了,貌似没有直接解法

#3 Newton‘s method牛顿法

牛顿法是用来求方程的解的方法,即求f(x)=0

使用如下更新方法

bubuko.com,布布扣

过程看下图自行脑补:

bubuko.com,布布扣

在Logistic Regression中,最大化

?(θ)的过程可以看做寻找?(θ)一阶导数为零的点,这样就转换成牛顿法可以求解的问题:

bubuko.com,布布扣

注意到

Logistic Regression中θ是一个向量,需要对牛顿法做拓广,叫Newton-Raphson method

bubuko.com,布布扣

H是

Hessian矩阵,在Logistic Regression中:

bubuko.com,布布扣

牛顿法在接近收敛时,有平方的收敛效果,即原来有0.01的误差,一次迭代后只有0.0001的误差

这使得牛顿法相比梯度下降法只需要少量的迭代就能达到相同的精度

牛顿法收敛速度虽然很快,但求 Hessian 矩阵的逆的时候比较耗费时间

牛顿法的初始化参数只有靠近收敛点才回高效,如果远离收敛点,甚至不会收敛,因为导数方向没有指示收敛点的方向

用牛顿法求解Logistic Regression叫Fisher‘s scoring

#高级优化算法

什么Conjugate Gradient,BFGS,LBFGS。。。。将开辟一节

单独研究

多分类问题

bubuko.com,布布扣

可规约为:

bubuko.com,布布扣

这种方法叫做一对多(One-vs-All)方法

更高级的方法会开辟一节单独研究

参考资料

[1] CS229

Lecture notes 1 (ps) (pdf)   Supervised Learning, Discriminative Algorithms Andrew Ng

[2] Coursera Machine Learning Andrew Ng

未完待续

2. Supervised Learning - Logistic Regression,布布扣,bubuko.com

2. Supervised Learning - Logistic Regression

标签:des   style   blog   class   c   ext   

原文地址:http://www.cnblogs.com/noooop/p/3735278.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!