设有$m$个指标,$n$个样本的原始数据 1. 将原始数据按列组成矩阵 $X _ { n \times m }$ 2. 将$X$ 的每一列进行中心化 3. 求$X$的协方差矩阵$\Sigma _ { X } = \frac { 1 } { n 1 } X ^ { T } X$ 4. 求出 $\Sig ...
分类:
编程语言 时间:
2019-07-06 09:13:50
阅读次数:
137
00 个人总结 PCA(主成分分析法)目的: 1.降低特征间个数,减少的计算量 2.降低特征之间的相关性,使特征之间更加的独立 3.减少噪声对数据的影响,使模型更加的稳定 4.方便数据的可视化 简单步骤: 1.对数据进行零均值化处理 2.计算协方差矩阵 3.计算特征值和特征向量 4.找到n个特征值和 ...
分类:
其他好文 时间:
2019-06-09 13:13:10
阅读次数:
109
1 先备知识 1.1 一些统计学认识 方差: 用来描述样本偏离中心程度的量 协方差:用来描述两变量 X,Y 相互关系的量,协方差越大,对彼此影响越大,协方差等于0,两者独立 协方差矩阵: 如果一组样本 y1,.......ym ,每个样本是 n 维行向量,则这组样本的协方差矩阵为: 注意:矩阵中的 ...
分类:
其他好文 时间:
2019-06-04 20:57:10
阅读次数:
241
1.数据库 Dataset1.txt:328个同学的身高、体重、性别数据(78个女生250个男生) Dataset2.txt:124个同学的数据(40女、84男) Dataset3.txt:90个同学的数据(16女,74男) 数据集:提取码:e8ph 2.需要完成的工作 (1)以dataset1为训 ...
分类:
其他好文 时间:
2019-03-31 13:36:42
阅读次数:
185
周志华《机器学习》第三章:基本形式,线性回归,线性判别分析,多分类学习,类别不平衡问题 ...
分类:
其他好文 时间:
2019-01-30 18:28:49
阅读次数:
208
构建模型的个基本过程: PCA 与 SVD关系 PCA : 降维度。过程:首先计算样本本协方差矩阵,然后·暴力特征分解·(非常消耗资源)。 SVD : 降维度,它的标准推导过程类似特征分解(耗资源),据说,sk-learn中它有其他实现过程。 scikit-learn的PCA算法的背后真正的实现就是 ...
分类:
其他好文 时间:
2019-01-21 16:08:54
阅读次数:
183
MATLAB求马氏距离(Mahalanobis distance) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 1.马氏距离计算公式 d2(xi, xj)=(xi-xj)TS-1(xi-xj) 其中,S是总体的协方差矩阵,而不是样本的协方差矩阵。 ...
分类:
其他好文 时间:
2019-01-10 21:53:32
阅读次数:
825
1、通过本征向量和本征值求主成分 关系:本征值是本征向量的缩放倍数,本征值大的对应的本征向量上的样本的数目就越多;相反本征值越小的,就本征向量上的样本数量就会少。因此可以求出PCA的主成分 主成分分析:主成分大小和本征值的区别在于数据分布所在的“椭圆”的轴的长度是正比于本征值开根号(标准差),不是本 ...
分类:
其他好文 时间:
2018-12-23 23:48:31
阅读次数:
176
目的: 使用主成分分析,将数据降维,并尽量减少各个数据之间的相关性 主成分分析主要就是把有相关性的特征合并到一起 做法: 求出数据的协方差矩阵Σ 求出Σ的特征向量(λ1,λ2,,,,,,λn) 求出λi对应的特征向量Ui Ui就是第i个主成分的系数了,,,,第i个主成分就是Ui * X 第i个主成分 ...
分类:
其他好文 时间:
2018-12-23 20:01:51
阅读次数:
144
Lecture 7 神经网络二 课程内容记录:https://zhuanlan.zhihu.com/p/21560667?refer=intelligentunit 1.协方差矩阵: 协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变 ...
分类:
其他好文 时间:
2018-12-23 17:56:00
阅读次数:
145