码迷,mamicode.com
首页 > 其他好文 > 详细

多元线性回归

时间:2015-06-14 16:24:38      阅读:216      评论:0      收藏:0      [点我收藏+]

标签:

转自:http://www.cnblogs.com/zgw21cn/archive/2009/01/07/1361287.html

多元线性回归

1、多元线性回归模型

假定被解释变量技术分享与多个解释变量技术分享之间具有线性关系,是解释变量的多元线性函数,称为多元线性回归模型。即

技术分享 (1.1)

其中技术分享为被解释变量,技术分享技术分享个解释变量,技术分享技术分享个未知参数,技术分享为随机误差项。

被解释变量技术分享的期望值与解释变量技术分享的线性方程为:

技术分享 (1.2)

称为多元总体线性回归方程,简称总体回归方程。

对于技术分享组观测值技术分享,其方程组形式为:

技术分享 (1.3)

技术分享

其矩阵形式为

技术分享=技术分享技术分享+技术分享

技术分享 (1.4)

其中

技术分享技术分享为被解释变量的观测值向量;技术分享技术分享为解释变量的观测值矩阵;技术分享技术分享为总体回归参数向量;技术分享技术分享为随机误差项向量。

总体回归方程表示为:

技术分享 (1.5)

多元线性回归模型包含多个解释变量,多个解释变量同时对被解释变量技术分享发生作用,若要考察其中一个解释变量对技术分享的影响就必须假设其它解释变量保持不变来进行分析。因此多元线性回归模型中的回归系数为偏回归系数,即反映了当模型中的其它变量不变时,其中一个解释变量对因变量技术分享的均值的影响。

由于参数技术分享都是未知的,可以利用样本观测值技术分享对它们进行估计。若计算得到的参数估计值为技术分享,用参数估计值替代总体回归函数的未知参数技术分享,则得多元线性样本回归方程:

技术分享 (1.6)

其中技术分享为参数估计值,技术分享技术分享的样本回归值或样本拟合值、样本估计值。

其矩阵表达形式为:

技术分享 (1.7)

其中技术分享技术分享为被解释变量样本观测值向量技术分享技术分享阶拟合值列向量;技术分享技术分享为解释变量技术分享技术分享阶样本观测矩阵;技术分享技术分享技术分享为未知参数向量技术分享技术分享阶估计值列向量。

样本回归方程得到的被解释变量估计值技术分享与实际观测值技术分享之间的偏差称为残差技术分享

技术分享 (1.8)

2、多元线性回归模型的假定

与一元线性回归模型相同,多元线性回归模型利用普通最小二乘法(OLS)对参数进行估计时,有如下假定:

假定1 零均值假定:技术分享,即

技术分享 (2.1)

假定2 同方差假定(技术分享的方差为同一常数):

技术分享 (2.2)

假定3 无自相关性:

技术分享

技术分享 技术分享

技术分享 (2.3)

假定4 随机误差项技术分享与解释变量技术分享不相关(这个假定自动成立):

技术分享 (2.4)

假定5 随机误差项技术分享服从均值为零,方差为技术分享的正态分布:

技术分享 (2.5)

假定6 解释变量之间不存在多重共线性:

技术分享

即各解释变量的样本观测值之间线性无关,解释变量的样本观测值矩阵技术分享的秩为参数个数k+1,从而保证参数技术分享的估计值唯一。

3、多元线性回归模型的参数估计

3.1回归参数的最小二乘估计

对于含有技术分享个解释变量的多元线性回归模型

技术分享

技术分享分别作为参数技术分享的估计量,得样本回归方程为:

技术分享

观测值技术分享与回归值技术分享的残差技术分享为:

技术分享

由最小二乘法可知技术分享应使全部观测值技术分享与回归值技术分享的残差技术分享的平方和最小,即使

技术分享

技术分享 (3.1)

取得最小值。根据多元函数的极值原理,技术分享分别对技术分享求一阶偏导,并令其等于零,即

技术分享 (3.2)

技术分享

化简得下列方程组

技术分享 (3.3)

上述技术分享个方程称为正规方程,其矩阵形式为

技术分享 (3.4)

因为

技术分享

技术分享技术分享技术分享技术分享

技术分享技术分享技术分享

技术分享为估计值向量

样本回归模型技术分享两边同乘样本观测值矩阵技术分享的转置矩阵技术分享,则有

技术分享

得正规方程组:

技术分享 (3.5)

由假定(6),技术分享技术分享技术分享阶方阵,所以技术分享满秩,技术分享的逆矩阵技术分享存在。因而

技术分享 (3.6)

则为向量技术分享的OLS估计量。

以二元线性回归模型为例,导出二元线性回归模型的OLS估计量的表达式。由(1.3)式得二元线性回归模型为

技术分享

为了计算的方便,先将模型中心化。

技术分享

技术分享

技术分享

技术分享

技术分享

技术分享,则二元回归模型改写为中心化模型。

技术分享 (3.7)

技术分享

技术分享 (3.8)

技术分享代入得

技术分享 (3.9)

因为

技术分享

技术分享 (3.10)

技术分享

由(3.6)式得

技术分享 (3.11)

其中

技术分享

由(3.11)式可知

技术分享

技术分享

技术分享 (3.12)

技术分享 (3.13)

技术分享 (3.14)

3.2随机误差项技术分享的方差技术分享的估计量

样本回归方程得到的被解释变量估计值技术分享与实际观测值技术分享之间的偏差称为残差技术分享

技术分享

技术分享

技术分享

技术分享

技术分享

技术分享

技术分享,可以得出技术分享技术分享阶对称幂等矩阵,技术分享技术分享。于是

技术分享

而残差的平方和为

技术分享

技术分享

技术分享

技术分享

技术分享

技术分享

其中"技术分享"表示矩阵的迹,即矩阵主对角线元素的和。于是

技术分享

随机误差项技术分享的方差技术分享的无偏估计量,记作技术分享,即技术分享技术分享技术分享为残差的标准差(或回归标准差)。

因此

技术分享 (3.15)

其中

技术分享

技术分享

技术分享

技术分享 (3.16)

例如,对于二元线性回归模型(技术分享)

技术分享 (3.17)

技术分享

技术分享 (3.18)

3.3、估计参数的统计性质

1、线性性

指最小二乘估计量技术分享是被解释变量的观测值技术分享的线性函数。

由于

技术分享

技术分享,则矩阵技术分享为一非随机的技术分享阶常数矩阵。所以

技术分享 (3.19)

显然最小二乘估计量技术分享是被解释变量的观测值技术分享的线性函数。

2、无偏性

技术分享代入(3-16)式得

技术分享

技术分享 (3.20)

技术分享

技术分享

技术分享

所以技术分享技术分享的无偏估计量。

3.最小方差性

技术分享技术分享阶数值矩阵,技术分享技术分享阶随机矩阵(随机变量为元素的矩阵),技术分享技术分享阶数值矩阵,则

技术分享

下面推导技术分享的方差、协方差矩阵。

定义:技术分享

技术分享

技术分享

由(3.20)式得

技术分享

所以

技术分享

技术分享

技术分享

技术分享

技术分享 (3.21)

这个矩阵主对角线上的元素表示技术分享的方差,非主对角线上的元素表示技术分享的协方差。例如技术分享是位于技术分享的第技术分享行与第技术分享列交叉处的元素(主对角线上的元素);技术分享是位于技术分享的第技术分享行与第技术分享列交叉处的元素(非主对角线上的元素)

在应用上,我们关心的技术分享的方差,而忽略协方差,因此把(3.21)式记作

技术分享 (3.22)

技术分享,则技术分享,所以技术分享技术分享的最小方差线性无偏估计。这说明,在(1.1)式系数的无偏估计量中,OLS估计量的方差比用其它估计方法所得的无偏估计量的方差都要小,这正是OLS的优越性所在。

技术分享代替技术分享则得技术分享的标准估计量的估计值,乃称为标准差。

技术分享 (3.23)

其中

技术分享

对于二元回归模型(技术分享),求估计量技术分享的方差,由(3.22)式得

技术分享

其中

技术分享

于是

技术分享

所以

技术分享 (3.24)

技术分享 (3.25)

技术分享 (3.26)

技术分享 (3.27)

其中

技术分享

 

4. 显著性检验

4.1 拟合优度检验

4.1.1总离差平方和分解

设具有技术分享个解释变量的回归模型为

技术分享

其回归方程为

技术分享

离差分解:

技术分享

总离差平方和分解式为:

技术分享 (4.1)

技术分享 (4.2)总离差平方和分解为回归平方和与残差平方和两部分。技术分享体现了观测值技术分享总波动大小,称为总偏差平方和,记作TSS. 技术分享体现了n个估计值技术分享的波动大小,它是由于Y与自变量技术分享的变化而引起,被称作为回归平方和,记为ESS(Explained Sum of Squares)或U;技术分享称为残差平方和,记为RSS(Residual Sum of Squares)或Q.

4.1.2样本决定系数

对于多元回归方程,其样本决定系数为复决定系数或多重决定系数。

技术分享,简记为技术分享

技术分享 (4.3)

根据式(4.2)

技术分享 (4.4)

因为

技术分享

由(3.16)式知

技术分享

所以

技术分享

技术分享 (4.5)

技术分享作为检验回归方程与样本值拟合优度的指标:技术分享技术分享越大,表示回归方程与样本拟合的越好;反之,回归方程与样本值拟合较差。

具体的,当技术分享时,求样本决定系数

技术分享

由(3.8)式,得技术分享 ,因此有

技术分享 (4.6)

4.1.3调整后的样本决定系数

在使用技术分享时,容易发现技术分享的大小与模型中的解释变量的数目有关。如果模型中增加一个新解释变量,总离差技术分享不会改变,但总离差中由解释变量解释的部分,即回归平方和技术分享将会增加,这就是说技术分享与模型中解释变量个数有关。但通过增加模型中解释变量的数目而使技术分享增大是错误的,显然这样技术分享来检验被回归方程与样本值拟合优度是不合适的,需要对技术分享进行调整,使它不但能说明已被解释离差与总离差的关系,而且又能说明自由度的数目。

技术分享表示调整样本决定系数,

技术分享 (4.7)

其中

技术分享

这里技术分享是残差平方和的自由度,技术分享是总离差平方和的自由度。

由(4.7)式得

技术分享

其中,技术分享是样本观测值的个数,技术分享是解释变量的个数。从式中可以看出,当增加一个解释变量时,由前面分析可知技术分享会增加,引起技术分享减少,而技术分享增加,因而技术分享不会增加。这样用技术分享判定回归方程拟合优度,就消除了技术分享对解释变量个数的依赖。

技术分享技术分享只能说明在给定的样本条件下回归方程与样本观测值拟合优度,并不能做出对总体模型的推测,因此不能单凭技术分享技术分享来选择模型,必须对回归方程和模型中各参数的估计量做显著性检验。

4.2方程显著性检验

由离差平方和分解(4.2)式可知,总离差平方和技术分享的自由度为技术分享,回归平方和技术分享是由技术分享个解释变量技术分享技术分享的线性影响决定的。因此它的自由度为技术分享。所以,残差平方和的自由度由总离差平方和的自由度减去回归平方和的自由度,即为技术分享

检验回归方程是否显著,

第一步,作出假设

技术分享

备择假设H1:b1 、 b2 、…、bk不同时为0

第二步,在技术分享成立的条件下,计算统计量技术分享

技术分享

第三步,查表临界值

对于假设技术分享,根据样本观测值计算统计量技术分享给定显著水平技术分享,查第一个自由度为技术分享,第二个自由度为技术分享技术分享分布表得临界值技术分享。当技术分享时,拒绝技术分享,则认为回归方程显著成立;当技术分享时,接受技术分享,则认为回归方程无显著意义。

4.3技术分享参数显著性检验

回归方程显著成立,并不意味着每个解释变量技术分享对被解释变量技术分享的影响都是重要的。如果某个解释变量对被解释变量技术分享的影响不重要,即可从回归模型中把它剔除掉,重新建立回归方程,以利于对经济问题的分析和对技术分享进行更准确的预测。为此需要对每个变量进行考查,如果某个解释变量技术分享对被解释变量技术分享的作用不显著,那么它在多元线性回归模型中,其前面的系数可取值为零。因此必须对技术分享是否为零进行显著性检验。

由(3.23)式

技术分享 (4.8)

其中

技术分享

技术分享技术分享的第i个对角元素,而技术分享技术分享是中心化的数据阵。

对回归系数技术分享进行显著性技术分享检验,步骤如下:

(1)提出原假设技术分享;备择假设技术分享

(2)构造统计量技术分享,当技术分享成立时,统计量技术分享。这里技术分享技术分享的标准差,技术分享为解释变量个数,计算由式(4.8)给出。

(3)给定显著性水平技术分享,查自由度为技术分享技术分享分布表,得临界值技术分享

(4)若技术分享,则拒绝技术分享,接受技术分享,即认为技术分享显著不为零。若技术分享,则接受技术分享,即认为技术分享显著为零。

5.回归变量的选择与逐步回归

5.1变量选择问题

在实际问题中,影响因变量Y的因素(自变量)很多,人们希望从中挑选出影响显著的自变量来建立回归关系式,这就涉及到自变量选择的问题。

在回归方程中若漏掉对Y影响显著的自变量,那么建立的回归式用于预测时将会产生较大的偏差。但回归式若包含的变量太多,且其中有些对Y影响不大,显然这样的回归式不仅使用不方便,而且反而会影响预测的精度。因而选择合适的变量用于建立一个"最优"的回归方程是十分重要的问题。

选择"最优"子集的变量筛选法包括逐步回归法(Stepwise),向前引入法(Forward)和向后剔除法(Backwad)。

向前引入法是从回归方程仅包括常数项开始,把自变量逐个引入回归方程。具体地说,先在m个自变量中选择一个与因变量线性关系最密切的变量,记为技术分享,然后在剩余的m-1个自变量中,再选一个技术分享,使得技术分享联合起来二元回归效果最好,第三步在剩下的m-2个自变量中选择一个变量技术分享,使得技术分享联合起来回归效果最好,...如此下去,直至得到"最优"回归方程为止。

向前引入法中的终止条件为,给定显著性水平技术分享,当某一个对将被引入变量的回归系数作显著性检查时,若p-value 技术分享技术分享,则引入变量的过程结束,所得方程即为"最优"回归方程。

向前引入法有一个明显的缺点,就是由于各自变量可能存在着相互关系,因此后续变量的选入可能会使前面已选入的自变量变得不重要。这样最后得到的"最优"回归方程可包含一些对Y影响不大的自变量。

向后剔除法与向前引入法正好相反,首先将全部m个自变量引入回归方程,然后逐个剔除对因变量Y作用不显著的自变量。具体地说,从回归式m个自变量中选择一个对Y贡献最小的自变量,比如技术分享,将它从回归方程中剔除;然后重新计算Y与剩下的m-1个自变量回归方程,再剔除一个贡献最小的自变量,比如技术分享,依次下去,直到得到"最优"回归方程为止。向后剔除法中终止条件与向前引入法类似。

向后剔除法的缺点在于,前面剔除的变量有可能因以后变量的剔除,变为相对重要的变量,这样最后得到的"最优"回归方程中有可能漏掉相对重要的变量。

逐步回归法是上述两个方法的综合。向前引入中被选入的变量,将一直保留在方程中。向后剔除法中被剔除的变量,将一直排除在外。这两种方程在某些情况下会得到不合理的结果。于是,可以考虑到,被选入的的变量,当它的作用在新变量引入后变得微不足道时,可以将它删除;被剔除的变量,当它的作用在新变量引入情况下变得重要时,也可将它重新选入回归方程。这样一种以向前引入法为主,变量可进可出的筛选变量方法,称为逐步回归法。

5.2逐步回归分析

5.2.1基本思想

逐个引入自变量。每次引入对Y影响最显著的自变量,并对方程中的老变量逐个进行检验,把变为不显著的变量逐个从方程中剔除掉,最终得到的方程中既不漏掉对Y影响显著的变量,又不包含对Y影响不显著的变量。

5.2.2筛选的步骤

首先给出引入变量的显著性水平技术分享和剔除变量的显著性水平技术分享,然后按下图筛选变量。

技术分享

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5.2.3逐步筛选法的基本步骤

逐步筛选变量的过程主要包括两个基本步骤:一是从回归方程中考虑剔除不显著变量的步骤;二是从不在方程中的变量考虑引入新变量的步骤。

(1)考虑可否引入新变量的基本步骤。假设已入选r个变量,不在方程中的变量记为技术分享

  1. 计算不在方程中的变量技术分享的偏回归平方和技术分享

技术分享,Q表示括号中这些变量的回归模型的残差平方和。并设

技术分享,即不在方程中的变量技术分享是对Y影响最大的变量。

  1. 检验变量技术分享对Y的影响是否显著。对变量技术分享作回归系数的显著性检验,即检验技术分享,检验统计量为

技术分享技术分享,其中F~F(1,n-r-1).

若p<技术分享,则引入技术分享,并转入考虑可否剔除变量的步骤。若技术分享,则逐步筛选变量的过程结束。

(2)考虑可否剔除变量的基本步骤。假设已引入回归方程的变量为技术分享.

  1. 计算已在方程中的变量技术分享的偏回归平方和技术分享技术分享  其中Q表示括号中这些变量的回归模型的残差平方和,U表示其回归平方和。设

技术分享,即相应的变量技术分享是方程中对Y影响最小的变量。

  1. 检验技术分享对Y的影响是否显著。对变量技术分享进行回归系数的显著性检验,即检验技术分享,检验统计量为

技术分享技术分享,其中F~F(1,n-r-1)。

若p大于等于技术分享,则剔除技术分享,重新建立Y与其余r-1个变量的回归方程,然后再检验方程中最不重要的变量可否删除,直到方程中没有变量可删除后,转入考虑能否引入新变量的步骤。

5.3流程图

(1)后向选择

技术分享

(2) 前向引入(Forward)

技术分享

(3)逐步回归(Stepwise)

技术分享

多元线性回归

标签:

原文地址:http://www.cnblogs.com/lixin890808/p/4575151.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!