码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习笔记(二)- from Andrew Ng的教学视频

时间:2015-01-10 17:54:56      阅读:307      评论:0      收藏:0      [点我收藏+]

标签:

省略了Octave的使用方法结束,以后用得上再看吧

week three:

Logistic Regression:

用于0-1分类

Hypothesis Representation:

技术分享

技术分享:Sigmoid function or Logistic function

Decision boundary:

theta 的转置*小x>=0 即为boundary

may :Non-linear decision boundaries,构造x的多项式项

Cost function:

技术分享

Simplified cost function and gradient descent:

由于y只有两个值,所以合并:

技术分享

对上式求最小偏导:

技术分享(应该是忽略了分母)

Advanced optimization:

Conjugate gradient,BFGS,L-BFGS(有待查询学习)

Multi-class classification: One-vs-all:

对每个类使用一次Logistic Regression分类,确定参数之后,求出max的那一类:called One-vs-all(一对多方法)。

 

Regularization:The problem of overfitting

overfiting:reduce number of features or regularization

linear regression:

技术分享

Gradient descent:

技术分享

Normal equation:

技术分享

Regularized logistic regression:like linear regression,add extra in J(theta)

attention : 多的正则项是从1开始的,对于0不做惩罚。

机器学习笔记(二)- from Andrew Ng的教学视频

标签:

原文地址:http://www.cnblogs.com/holyprince/p/4215164.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!