简介 @ "维基百科" 本文内容皆源自 "Andrew Ng" 目的 1.实现数据压缩 2.实现数据在2D或3D中可视化 算法 "PCA(主成分分析)" 步骤 1.数据预处理 采用归一化方法,是的均值为0,方差为1。 步骤,1.均值为0 2.方差为1 $x_j^{(i)}={x_j \mu}\fra ...
分类:
其他好文 时间:
2020-02-08 09:33:05
阅读次数:
74
线性判别分析(Linear Discriminant Analysis),简称LDA,是一种经典的线性学习方法。在二分类问题上最早由Fisher提出,也称"Fisher判别分析"。 在主成分分析原理总结中,我们对降维算法PCA进行了总结。这里的LDA是另一种经典的的降维算法。使用PCA进行降维,我们 ...
分类:
其他好文 时间:
2020-01-11 00:06:20
阅读次数:
110
1. 矩阵分解可以用来解决什么方法, 以及how? 利用矩阵分解来解决实际问题的分析方法很多,如PCA(主成分分析)、ICA(独立成分分析)、SVD(奇异值分解)、VQ(矢量量化)等。在所有这些方法中,原始的大矩阵V被近似分解为低秩的V=WH形式。这些方法的共同特点是,因子W和H中的元素可为正或负, ...
分类:
其他好文 时间:
2020-01-10 22:12:43
阅读次数:
95
PCA的流程: 代码参考:https://www.cnblogs.com/clnchanpin/p/7199713.html 协方差矩阵的计算 https://docs.scipy.org/doc/numpy/reference/generated/numpy.cov.html 思想: https: ...
分类:
其他好文 时间:
2019-12-28 09:56:21
阅读次数:
86
原文链接:http://tecdat.cn/?p=9839 总览 在监督学习中,我们通常可以访问n个 观测值的p个 特征 集 ,并 在相同观测值上测得的 Y。 无监督学习是一组没有相关的变量 Y的方法。在这里,我们重点介绍两种技术… 主成分分析:用于数据可视化或在其他监督学习方法之前进行预处理的工具 ...
分类:
编程语言 时间:
2019-12-26 00:09:34
阅读次数:
146
PCA(主成分分析)方法浅析 降维、数据压缩 找到数据中最重要的方向:方差最大的方向,也就是样本间差距最显著的方向 在与第一个正交的超平面上找最合适的第二个方向 PCA算法流程 上图第一步描述不正确,应该是去中心化,而不是中心化 具体来说,投影这一环节就是:将与特征值对应的k个特征向量分别作为行向量 ...
分类:
其他好文 时间:
2019-11-30 21:07:21
阅读次数:
116
第一节:杂文 SPSS和其他的一些同款统计分析软件的对比 SPSS和其他的软件都是解决结构化的数据 除了R语言外其他都是收费的 Python解决非结构化数据 SPSS主要用于市场问卷、电信的等行业 SAS主要用于金融、医药、生化等一些不差钱的行业 数据分析的面向过程 实验室 单位 30条数据 问卷调 ...
分类:
其他好文 时间:
2019-11-30 00:08:54
阅读次数:
288
凸优化问题 以逻辑回归为例,$Y={1, 1}$,假设模型参数为$\theta$,则逻辑回归问题的优化目标为 $$\begin{aligned} \mathop{\min}_{\theta}L(\theta) = \sum \limits_{i=1}^n \log (1 + \exp( y_i \t ...
分类:
其他好文 时间:
2019-11-24 16:04:17
阅读次数:
66
主成分分析 线性、非监督、全局的降维算法 PCA最大方差理论 出发点:在信号处理领域,信号具有较大方差,噪声具有较小方差 目标:最大化投影方差,让数据在主投影方向上方差最大 PCA的求解方法: 对样本数据进行中心化处理 求样本协方差矩阵 对协方差矩阵进行特征分解,将特征值从大到小排列 取特征值前d大 ...
分类:
其他好文 时间:
2019-11-24 15:58:56
阅读次数:
102
本文参考自:https://github.com/apachecn/AiLearning/blob/master/src/py2.x/ml/13.PCA/pca.py https://github.com/lawlite19/MachineLearning_Python#%E5%85%ADpca%E ...
分类:
编程语言 时间:
2019-11-11 09:53:11
阅读次数:
90