此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。
课程网址:https://www.coursera.org/learn/machine-learning/home/welcome
Week 1: Introduction 笔记:http://blog.csdn.net/ironyoung/article/details/46845233
Week 2:Linear Regression with Multiple Variables笔记:http://blog.csdn.net/ironyoung/article/details/47129523
Logistic Regression
Cost Function
回忆线性回归的 cost function,我们在其中插入 cost 函数的概念:
完全照搬线性回归的 cost function 到逻辑回归中,因为sigmoid函数的非线性,会造成
构造的新 cost 函数:
cost(hθ(x),y)=?ylog(hθ(x))?(1?y)log(1?hθ(x))
θj:=θj?α1m∑i=1m[(hθ(x(i))?y(i))x(i)j]
梯度下降法的优化
one vs. all (one vs. rest)
Regularization(正则化)
J(θ0,θ1)=12m[∑i=1m(hθ(x(i))?y(i))2+λ∑i=1mθ2j]
正则化方法处理之后,
θj:=θj?α[(1m∑i=1m(hθ(x(i))?y(i))x(i)j)+λmθj]:=θj(1?αλm)?α1m∑i=1m(hθ(x(i))?y(i))x(i)j
若
Regularization for Normal Equation
对于 Week 2 中的Normal Equation方法,原本需要求解的方程
θ=(xTx+λ???????00?001?0……?…00?1???????)?1xTy
若样本拥有n个特征,则
版权声明:本文为博主原创文章,未经博主允许不得转载。
Andrew Ng Machine Learning - Week 3:Logistic Regression & Regularization
原文地址:http://blog.csdn.net/ironyoung/article/details/47398843