码迷,mamicode.com
首页 > 其他好文 > 详细

线性回归——简单线性回归

时间:2017-12-24 22:47:02      阅读:208      评论:0      收藏:0      [点我收藏+]

标签:图片   数据   机器   推出   联合   感受   log   bubuko   text   

给定数据集技术分享图片,其中技术分享图片。线性回归试图学得一个线性模型以尽可能准确线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记。(注:上面的技术分享图片以及技术分享图片均表示向量;技术分享图片的取值表示在技术分享图片向量上的第d个属性

 

先考虑最简单的情形(简单线性回归):输入属性的数目只有一个。简单线性回归线性回归试图学得

技术分享图片,使得技术分享图片

 

我们可以通过使均方误差最小化来求wb,即

技术分享图片 

均方误差对应了常用的欧氏距离。基于均方误差最小化来进行模型求解的方法成为“最小二乘法”。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。

技术分享图片,分别对wb求偏导,可得:

技术分享图片

这里技术分享图片是凸函数,当它关于wb的导数均为0时得到wb的最优解。令上面的偏导为0可得:

 技术分享图片,其中技术分享图片

通过上式,可算出:

技术分享图片

这就表明,在简单线性回归中,对应属性数目只有一个(也就是二维)时,最优解w是所有纵坐标之和除以所有横坐标之和。最优解b是在该w之下,数据集中所有点对应截距总和的平均值(即每个点在该w之下会有一个自己的截距,求出所有点的对应截距再求和,最后平均之后作为最优的截距)。

 

参考资料:机器学习(周志华版)

注:上述公式都可以简单推导出来,书中给出的w是上面的复杂的公式,在推到过程中可以不必太在意这个公式,直接结合求出的w和b的公式,联合方程组就可以求出上面那个简洁的w公式。个人认为这里推出的w很漂亮,因为很容易理解,算是第一次粗略地感受到数学之美。后续还会写一篇多元线性回归的博文,希望也可以做一个很好的解释。

线性回归——简单线性回归

标签:图片   数据   机器   推出   联合   感受   log   bubuko   text   

原文地址:http://www.cnblogs.com/zzq-zhangzhiqiang/p/8099302.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!