码迷,mamicode.com
首页 > 其他好文 > 详细

(三)Normal Equation

时间:2015-11-08 20:39:36      阅读:139      评论:0      收藏:0      [点我收藏+]

标签:

继续考虑Liner Regression的问题,把它写成如下的矩阵形式,然后即可得到θ的Normal Equation.

技术分享

技术分享

  Normal Equation: θ=(XTX)-1XTy

  当X可逆时,(XTX)-1XTy = X-1,(XTX)-1XTy其实就是X的伪逆(Pseudo inverse)。这也对应着Xθ = y ,θ = X-1y

考虑特殊情况 XTX 不可逆

技术分享

解决办法:

1)考虑是否有冗余的特征,例如特征中有平方米,还有平方厘米,这两个特征就是冗余的,解决办法是去掉冗余

2)再有就是n<<m,其中n 为特征数,m为样本数,比如说用10个样本去学习100个参数的问题,这种情况的解决办法是去feature或者进行Regularization

技术分享

总结:Gradient descent VS Normal Equation

技术分享

上图可以看出梯度下降需要选择参数a,并且要多次迭代,有点事特征非常多时,依然正常工作

 而Normal Equation 不用选择a,并且不用迭代,只需计算X的伪逆即可,当n很大时,设计到非常大的n×n浮点矩阵运算,当然会很耗时,所以n很大时最好选择Gradient Descent。

(三)Normal Equation

标签:

原文地址:http://www.cnblogs.com/ooon/p/4947958.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!