码迷,mamicode.com
首页 > 系统相关 > 详细

Coursera Machine Learning 学习笔记(八)

时间:2015-03-05 19:33:25      阅读:638      评论:0      收藏:0      [点我收藏+]

标签:machine learning



IV. Linear Regression with Multiple Variables (Week 2)

- Multiple features

       之前我们介绍了单变量/单特征的回归模型,现在我们对房价预测模型增加更多的变量也就是更多的特征,比如房间数、楼层、房龄等,从而构成一个含有多个变量/特征的模型。

       技术分享            

       在增加了更多变量/特征之后,我们将引入一系列新的符号和解释:

       n 代表变量/特征的个数 

       技术分享代表第i个训练实例,也就是特征矩阵中的第i行,即一个向量

       技术分享代表第i个训练实例的第j个特征,也就是特征矩阵中第i行的第j个特征

       因此,多变量/特征的假设h可以表示为:

       技术分享

       这个公式中有n+1个参数和n个变量,为了简化公式,我们令,则公式则表示为:

       技术分享

       此时h中的参数是一个n+1维的向量,训练实例也都是n+1维的向量。

       因此公式可以简化为:

       技术分享

       其中上标T代表了矩阵的转置。


- Gradient descent for multiple variables

       与单变量/特征线性回归相似,在多变量/特征线性回归中,我们也将定义一个代价函数,即:

       技术分享

       我们的目标和单变量/特征线性回归中的问题相同,就是要找出使得代价函数最小的参数组合。

       因此,多变量/线性回归梯度下降算法为:

       技术分享

       即:

       技术分享

       求导数后可以得到:

       技术分享

       之后,我们通过随机更新一系列的值并计算代价函数,直到收敛。

Coursera Machine Learning 学习笔记(八)

标签:machine learning

原文地址:http://blog.csdn.net/jojozhangju/article/details/44084997

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!