码迷,mamicode.com
首页 > 其他好文 > 详细

最小二乘法(least squares method)

时间:2016-08-31 14:09:35      阅读:167      评论:0      收藏:0      [点我收藏+]

标签:

.背景

? ?59号到北大去听hulu的讲座《推荐系统和计算广告在视频行业应用》,想到能见到传说中的项亮大神,特地拿了本《推荐系统实践》求签名。讲座开始,主讲人先问了下哪些同学有机器学习的背景,我恬不知耻的毅然举手,真是惭愧。后来主讲人在讲座中提到了最小二乘法,说这个是机器学习最基础的算法。神马,最基础,我咋不知道呢! 看来以后还是要对自己有清晰认识。

? ?回来赶紧上百度,搜了下什么是最小二乘法。

???先看下百度百科的介绍:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。

? ?通过这段描述可以看出来,最小二乘法也是一种优化方法,求得目标函数的最优值。并且也可以用于曲线拟合,来解决回归问题。难怪《统计学习方法》中提到,回归学习最常用的损失函数是平方损失函数,在此情况下,回归问题可以著名的最小二乘法来解决。看来最小二乘法果然是机器学习领域做有名和有效的算法之一。

? ?

. 最小二乘法

? ?我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢??监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面...

? ?对于一元线性回归模型, 假设从总体中获取了n组观察值(X1Y1),(X2Y2),,(XnYn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

? ? ? ? 1)用"残差和最小"确定直线位置是一个途径。但很快发现计算"残差和"存在相互抵消的问题。
? ? ? ?
2)用"残差绝对值和最小"确定直线位置也是一个途径。但绝对值的计算比较麻烦。
? ? ? ?
3)最小二乘法的原则是以"残差平方和最小"确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

 ?最常用的是普通最小二乘法( Ordinary ?Least SquareOLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。

? 样本回归模型:

? ? ? ? ? ? ? ? ??技术分享? ? ? ? ? ? ? ? ? ?其中ei为样本(Xi,?Yi)的误差

? ?平方损失函数:

? ? ? ? ? ? ? ? ? ? ??技术分享

? ?则通过Q最小确定这条直线,即确定技术分享,以技术分享为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:

? ? ? ? ? ? ? ? ? ?技术分享? ??

? ? 根据数学知识我们知道,函数的极值点为偏导为0的点。

? ? 解得:

技术分享

?

但一般计算所用到的公式如下:

技术分享

上面2个公式其实是等价的,大家可以自己证明

最小二乘法(least squares method)

标签:

原文地址:http://www.cnblogs.com/Yiutto/p/5825498.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!