本文是对PCA和SVD学习的整理笔记,为了避免很多重复内容的工作,我会在介绍概念的时候引用其他童鞋的工作和内容,具体来源我会标记在参考资料中。 一.PCA (Principle component analysis) PCA(主成分分析)通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提 ...
分类:
其他好文 时间:
2017-08-12 10:16:59
阅读次数:
237
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的 ...
分类:
其他好文 时间:
2017-08-11 17:49:58
阅读次数:
209
1 人工神经网络 1.1 神经元 神经网络由大量的神经元相互连接而成。每个神经元接受线性组合的输入后,最开始只是简单的线性加权,后来给每个神经元加上了非线性的激活函数,从而进行非线性变换后输出。每两个神经元之间的连接代表加权值,称之为权重(weight)。不同的权重和激活函数,则会导致神经网络不同的 ...
分类:
其他好文 时间:
2017-08-09 11:18:55
阅读次数:
1195
理解矩阵背后的现实意义 线性空间中的运动,被称为线性变换。 矩阵的本质是运动的描述。vs “矩阵是线性空间里跃迁的描述”。 在线性空间中选定基之后,向量刻画对象,矩阵刻画对象的运动,用矩阵与向量的乘法施加运动。 “矩阵是线性空间里的变换的描述。” 矩阵的定义:“矩阵是线性空间中的线性变换的一个描述。 ...
分类:
其他好文 时间:
2017-08-08 10:49:06
阅读次数:
181
归一化:对原始数据进行线性变换把数据映射到[0,1]之间 标准化:均值为0,标准差为1 One disadvantage of normalization over standardization is that it loses some information in the data, espe ...
分类:
其他好文 时间:
2017-07-26 00:20:05
阅读次数:
194
PCA的数学原理(转) 1 年前 PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程 ...
分类:
其他好文 时间:
2017-07-25 21:22:56
阅读次数:
198
幂次变换的基本表达式为:y=cxr+b 其中c、r均为正数。与对数变换相同,幂次变换将部分灰度区域映射到更宽的区域中。当r=1时,幂次变换转变为线性变换。 (1) 当0<r<1时,变换函数曲线在正比函数上方。此时扩展低灰度级,压缩高灰度级,使图像变亮。这一点与对数变换十分相似。 (2) 当r>1时, ...
分类:
其他好文 时间:
2017-07-20 16:25:53
阅读次数:
189
求微分其实就是线性化,导数其实就是线性空间之间的线性变换,Jaocibian矩阵本质上就是导数。 比如,映射在处的导数就是在处的切空间到在处的切空间之间的线性映射。切空间都是矢量空间,都有基底,所以这个线性变换就是矩阵。在欧氏空间子空间的开集上,切空间就是某个,比如实轴上的切空间就是,曲面上的切空间 ...
分类:
其他好文 时间:
2017-07-12 13:41:01
阅读次数:
293
矩阵左乘向量的两种理解 1,矩阵左乘向量可以理解为对向量进行线性变换 探究原理的话,可以理解左乘为对整个空间(基&目标向量)进行线性变换,其中, 变换矩阵是基‘在基的坐标的列向量组合 目标向量是向量在基中的坐标 结果向量是向量’在基下的坐标 就结果来看,实质是利用向量在基下的坐标和基‘在基下的坐标, ...
分类:
其他好文 时间:
2017-07-08 10:15:25
阅读次数:
282
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的 ...
分类:
其他好文 时间:
2017-07-02 23:24:52
阅读次数:
235