码迷,mamicode.com
首页 > 其他好文 > 详细

数据挖掘-回归分析

时间:2016-10-18 15:58:22      阅读:211      评论:0      收藏:0      [点我收藏+]

标签:

回归分析

回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器,自变量数量可以是单个也可以是多个)之间的关系。

这种技术通常用于预测分析,时间序列模型以及发现变量之间的因果关系

例如,司机的鲁莽驾驶与道路交通事故数量之间的关系,最好的研究方法就是回归。


 

回归分析技术区别

  回归分析的技术区别是自变量的个数,因变量的类型以及回归线的形状。

回归分析技术  


 

回归分析技术

1.Linear Regression线性回归

  类似于一元方程拟合直线使用最小二乘法,对于观测数据,它通过最小化每个数据点到线的垂直偏差平方和来计算最佳拟合线。因为在相加时,偏差先平方,所以正值和负值没有抵消。

     特点:对异常值敏感,常采用向前选择法、向后剔除法和逐步筛选法选择最重要的自变量。

 

2.Logistic Regression逻辑回归

  逻辑回归是一个二分类问题。预测值y只有0和1两个取值(正类和负类), 如果我们忽略二分类问题中y的取值是一个离散的取值(0或1),我们继续使用线性回归来预测y的取值。这样做会导致y的取值并不为0或1。逻辑回归使用一个函数来归一化y值,使y的取值在区间(0,1)内,这个函数称为Logistic函数(logistic function),也称为Sigmoid函数(sigmoid function)。在进行样本估计是使用最大似然估计进行拟合,但是在样本数量极少的情况下,极大似然估计的效果比普通的最小二乘法差。

     关于逻辑回归的公式和一般线性回归的关系推导可以参阅 逻辑回归

 

3.Polynomial Regression多项式回归

  自变量指数大于1的回归方程就是多项式回归方程。

  

4.Stepwise Regression逐步回归

参考:http://www.advancedtechnic.com/ud/Stepwise%20Regression%20Analysis.htm

  在实际问题中, 人们总是希望从对因变量技术分享有影响的诸多变量中选择一些变量作为自变量, 应用多元回归分析的方法建立“最优”回归方程以便对因变量进行预报或控制。所谓“最优”回归方程, 主要是指希望在回归方程中包含所有对因变量技术分享影响显著的自变量而不包含对技术分享影响不显著的自变量的回归方程。逐步回归分析正是根据这种原则提出来的一种回归分析方法。它的主要思路是在考虑的全部自变量中按其对技术分享的作用大小, 显著程度大小或者说贡献大小, 由大到小地逐个引入回归方程, 而对那些对技术分享作用不显著的变量可能始终不被引人回归方程。另外, 己被引人回归方程的变量在引入新变量后也可能失去重要性, 而需要从回归方程中剔除出去。引人一个变量或者从回归方程中剔除一个变量都称为逐步回归的一步, 每一步都要进行技术分享检验, 以保证在引人新变量前回归方程中只含有对技术分享影响显著的变量, 而不显著的变量已被剔除。

  逐步回归分析的实施过程是每一步都要对已引入回归方程的变量计算其偏回归平方和(即贡献), 然后选一个偏回归平方和最小的变量, 在预先给定的技术分享水平下进行显著性检验, 如果显著则该变量不必从回归方程中剔除, 这时方程中其它的几个变量也都不需要剔除(因为其它的几个变量的偏回归平方和都大于最小的一个更不需要剔除)。相反, 如果不显著, 则该变量要剔除, 然后按偏回归平方和由小到大地依次对方程中其它变量进行技术分享检验。将对技术分享影响不显著的变量全部剔除, 保留的都是显著的。接着再对未引人回归方程中的变量分别计算其偏回归平方和, 并选其中偏回归平方和最大的一个变量, 同样在给定技术分享水平下作显著性检验, 如果显著则将该变量引入回归方程, 这一过程一直继续下去, 直到在回归方程中的变量都不能剔除而又无新变量可以引入时为止, 这时逐步回归过程结束。

     这种建模技术的目的是使用最少的预测变量数来最大化预测能力。这也是处理高维数据集的方法之一。

 

5. Ridge Regression岭回归

变量间存在共线性是,最小二乘回归得到的系数不稳定,方差很大,这是因为系数矩阵x与它的转置矩阵相乘得到的矩阵不能求逆,

岭回归是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价,获得回归系数更为符合实际、更可靠的回归方法,对病态数据的耐受性远远强于最小二乘法。根据高斯马尔科夫定力,多重相关性并不影响最小二乘法估计量的无偏性和最小方差性,但是,虽然最小二乘估计量在所有线性估计量中是方差最小的,但是这个方差都不一定小,而实际上可以找到一个有偏估计量,这个估计量虽然有较小的偏差,但它的精度却能够大大高于无偏的估计量。岭回归分析就是根据这个原理,通过在正规方程中引入有偏常熟二求的回归估计量的。

 

6. Lasso Regression套索回归

 它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。此外,它能够减少变化程度并提高线性回归模型的精度。

 

7.ElasticNet回归

ElasticNet是Lasso和Ridge回归技术的混合体。它使用L1来训练并且L2优先作为正则化矩阵。当有多个相关的特征时,ElasticNet是很有用的。Lasso 会随机挑选他们其中的一个,而ElasticNet则会选择两个。

 

数据挖掘-回归分析

标签:

原文地址:http://www.cnblogs.com/x739400043/p/5973538.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!