码迷,mamicode.com
首页 > 其他好文 > 详细

主成分分析(PCA)

时间:2015-09-03 16:30:07      阅读:169      评论:0      收藏:0      [点我收藏+]

标签:

PCA,主成分分析

  

  主成分分析主要用于数据的降维。原始数据中数据特征的维度可能是很多的,但是这些特征并不一定都是重要的,如果我们能够将数据特征进行精简,不但能够减少存储空间,而且也有可能降低数据中的噪声干扰。


  举个例子:这里有一组数据,如下 表1
  2.5  1.2  -2.3  -2.8   -1    0.3

  3.3  0.8  -1.8  -2.5  -0.8  0.2

 

  每一列代表一组数据,每一行代表一种特征,可见有2个特征,即数据是2维的,我们所要做的是尽可能的降低数据复杂度,同时也要保证数据中的信息不丢失。

技术分享

  将2维的数据画在坐标系中,我们发现如果以红色的轴作为x轴(y轴与x轴垂直),那么就可以数据坐标值就变成了,x轴方向值差距较大,而y轴方向值想接近,也可以用方差来描述,x轴方向的方差较大,y轴方向的方差较小,那么如果允许少量的信息失去,仅留下x轴方向的值,那么原数据就由2维降到了1维,这就是主成分分析的主要原理,由此可见,主要就是“坐标轴的变换”,将原来2维的数据“投影”到这个1维的轴上,那么方法的关键就是如何找到这个新的“坐标轴”。

 

  直观地理解,因为我们想尽可能的保留信息,所以在垂直于这个“新坐标轴”的方向上数据点的分布应该尽量的“扁”一些,换句话说,就是数据点在“新坐标轴”上的分布尽量的分散一些,用数学的语言表达就是使得数据点在“新坐标轴”上投影的方差尽量的大。这样,不同的两个点,投影之后也不是重叠的,最大地保留了信息。保留方差大的维度,忽略方差较小的维度,以此来降维。下面给出方差公式:

技术分享

  这样就足够了吗?

 

  我们考虑一组数据从3维降为2维的情况。也就是说要找到2个“新坐标轴”,那么该如何选,前面已经知道,我们要尽量使得数据在新坐标轴方向的投影尽量的分散,也就是方差尽量的大。同时这两条坐标轴一定要正交(你可以理解为垂直)。

 

  为什么一定要这样呢?

  因为如果两个坐标轴不互相垂直,那么其中一条坐标轴一定可以沿另一条坐标轴方向分解,这样这两条坐标轴所表达的“信息”事实是有重叠的,所以要让两条坐标轴表达的“信息”相互独立,即“新坐标轴”要正交。

  这个用数学的语言来表达就是所有的数据在两个“新坐标轴”的投影的协方差为0,即关于特征的两个行向量协方差为0。这个“新坐标轴”也被称为基,这个坐标轴变换也被称为基变换

下面是协方差公式:

技术分享

  (X,Y表示两个维度的数据,相当于表1中的两行)

  总结一下,就是两个方面:
    1)行向量的方差尽量大,Cov(X,X) Cov(Y,Y) (方差)
    2)行向量间的协方差为0 Cov(X,Y) Cov(Y,X)
  列向量指的是数据降维后在“新坐标轴”投影的下的值所组成的向量

 

  我们将这两个方面组合一个矩阵,这个矩阵称为协方差矩阵,我们的目标是使得其对角线以外的协方差为0,对角线上尽量保留方差大的维度(忽略方差较小的维度,以此来降维)。

技术分享

  那么这个协方差矩阵如何快速得到?

  由协方差的计算公式我们可以得到,将原矩阵每行都减去该行的均值,得到矩阵A,然后矩阵A乘以矩阵A的转置,最后除以N-1(N是矩阵行数)

 

  那么如何求得”新坐标轴“(一组基)和原始数据在”新坐标轴“下的表示?
  (下面引用张洋的博客,因为他写的实在太精彩了)
  设原始数据矩阵X对应的协方差矩阵为C,而P是一组基按行组成的矩阵,设Y=PX,则Y为X对P做基变换后的数据(Y即为压缩后的数据)。设Y的协方差矩阵为D,我们推导一下D与C的关系:
技术分享

  现在事情很明白了!我们要找的P不是别的,而是能让原始协方差矩阵对角化的P。换句话说,优化目标变成了寻找一个矩阵P,满足(公式)是一个对角矩阵,并且对角元素按从大到小依次排列,那么P的前K行就是要寻找的基,用P的前K行组成的矩阵乘以X就使得X从N维降到了K维并满足上述优化条件。

  (想看更加详细的解释,请移步 http://blog.codinglabs.org/articles/pca-tutorial.html)

  关于矩阵P的求法,由于协方差矩阵C是实对称阵,只要求出协方差矩阵C的特征值及对应的特征向量,将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P

  我们先介绍主成分分析法的原理,再来体验一下计算过程(使用Matlab)。

首先初始化矩阵

技术分享

矩阵减去每行的均值

技术分享

计算协方差矩阵C

技术分享

求解协方差矩阵的特征向量和特征值

技术分享

则P = eigenvectors

由于38.0823>0.5460

保留第二个特征向量(-0.7175, -0.6966)

技术分享

计算压缩后的数据Y

 

参考博客:

http://blog.codinglabs.org/articles/pca-tutorial.html

http://www.360doc.com/content/14/0526/06/15831056_380900310.shtml

主成分分析(PCA)

标签:

原文地址:http://www.cnblogs.com/coolalan/p/4779923.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!