参考文献:Learning Multiple Layers of Features from Tiny Images:附录
设数据集 X 的维数为 d×n ,且已经中心化
则协方差矩阵为
1/(n-1)*X*X'
我们想让这n个d维向量中任意两维都不相关,则假定去相关矩阵为W
Y = W*X
为了使W达到去相关的目的,Y*Y‘必须是对角阵,可以进一步约束Y满足
Y * Y’ = (n...
分类:
其他好文 时间:
2014-08-04 11:06:27
阅读次数:
403
算法简介
主成分分析(PrincipalComponentAnalysis,简称PCA)是一种常用的基于变量协方差矩阵对信息进行处理、压缩和抽提的有效方法。主要用于对特征进行降维。
算法假设
数据的概率分布满足高斯分布或是指数型的概率分布。方差高的向量视为主元。...
分类:
其他好文 时间:
2014-07-29 14:32:48
阅读次数:
196
what's xxxPCAprincipal components analysis is for dimensionality reduction.主要是通过对协方差矩阵Covariance matrix进行特征分解,以得出数据的主成分(即特征向量eigenvector)与它们的权值(即特征值ei...
分类:
其他好文 时间:
2014-07-19 23:23:11
阅读次数:
241
1. PCAprincipal components analysis主要是通过对协方差矩阵Covariance matrix进行特征分解,以得出数据的主成分(即特征向量eigenvector)与它们的权值(即特征值eigenvalue)。PCA是最简单的以特征量分析多元统计分布的方法。其结果可以理...
分类:
其他好文 时间:
2014-07-19 18:05:19
阅读次数:
190
原文:http://blog.csdn.net/songzitea/article/details/18219237引言当面对的数据被抽象为一组向量,那么有必要研究一些向量的数学性质。而这些数学性质将成为PCA的理论基础。理论描述向量运算即:内积。首先,定义两个维数相同的向量的内积为:(a1,a2,...
分类:
其他好文 时间:
2014-07-18 14:05:16
阅读次数:
339
# --*-- coding:utf-8 --*--import mathimport itertoolsdef Mean(t): """均值""" return float(sum(t)) / len(t)def E(x, p): """ 离散性随即变量的数学期望(也称为均...
分类:
其他好文 时间:
2014-07-16 20:18:01
阅读次数:
220
协方差(i,j)=(第i列所有元素-第i列均值)*(第j列所有元素-第j列均值)/(样本数-1)下面在给出一个4维3样本的实例,注意4维样本与符号X,Y就没有关系了,X,Y表示两维的,4维就直接套用计算公式,不用X,Y那么具有迷惑性的表达了。另外:最近看 Ng教程 http://deeplearni...
分类:
其他好文 时间:
2014-07-16 19:42:43
阅读次数:
304
变量说明:设为一组随机变量,这些随机变量构成随机向量 ,每一个随机变量有m个样本,则有样本矩阵(1)当中 相应着每一个随机向量X的样本向量, 相应着第i个随机单变量的全部样本值构成的向量。单随机变量间的协方差:随机变量 之间的协方差能够表示为(2)依据已知的样本值能够得到协方差的预计值例如以下: (...
分类:
其他好文 时间:
2014-07-16 18:58:35
阅读次数:
231
人脸识别中矩阵的维数n>>样本个数m。计算矩阵A的主成分,根据PCA的原理,就是计算A的协方差矩阵A'A的特征值和特征向量,但是A'A有可能比较大,所以根据A'A的大小,可以计算AA'或者A'A的特征值,原矩阵和其转置矩阵的特征值是一样的,只是特征向量不一样。假如我们的数据按行存放,A是m*n的矩阵...
分类:
其他好文 时间:
2014-07-01 00:50:18
阅读次数:
506
矩阵和图像的操作(1)cvCalcCovarMatrix函数其结构void cvCalcCovarMatrix(计算给定点的均值和协方差矩阵 const CvArr** vects,//给定向量 int count,//给定向量的组数 CvArr* cov_mat,//结果矩阵 CvArr* avg...
分类:
其他好文 时间:
2014-06-27 13:11:27
阅读次数:
250