1.特征值分解 2.奇异值分解 奇异值的物理意义是什么? 奇异值分解(SVD)原理详解及推导 奇异值分解(SVD)原理与在降维中的应用 3. ...
分类:
其他好文 时间:
2018-08-16 17:37:47
阅读次数:
143
首先说明一下特征值:设A是n阶方阵,如果存在 λ 和n维非零向量X,使 AX = λX ,则 λ 称为方阵A的一个特征值,X为方阵A对应于或属于特征值 λ 的一个特征向量。 AX = λX 的过程是一个从矩阵乘法到数乘操作的过程。数乘的实质是对向量X进行缩放,缩放因子为λ ,缩放只改变大小,不改变方 ...
分类:
其他好文 时间:
2018-08-12 10:26:53
阅读次数:
186
1.核范数||A|| * 是指矩阵奇异值的和,英文称呼叫Nuclear Norm.matlab code:[s, u, v] = svd(A); nulear_norm = sum(diag(s)); 2.matlab乘与点乘的区别 (*与.* ^与.^)点乘是数组的运算,不加点是矩阵的运算;2 点 ...
分类:
其他好文 时间:
2018-07-28 11:58:10
阅读次数:
136
奇异值分解(Singular Value Decomposition,SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SVD的。 ...
分类:
其他好文 时间:
2018-07-26 18:39:35
阅读次数:
227
谱聚类 广义上来说,任何在算法中用到SVD/特征值分解的,都叫Spectral Algorithm。顺便说一下,对于任意矩阵只存在奇异值分解,不存在特征值分解。对于正定的对称矩阵,奇异值就是特征值,奇异向量就是特征向量。 传统的聚类算法,如K-Means、EM算法都是建立在凸球形样本空间上,当样本空 ...
分类:
其他好文 时间:
2018-07-15 19:41:15
阅读次数:
201
看一个预测的代码,在预处理数据的时候使用了svd。了解了一下svd相关资料,比较喜欢第一篇文章的解释,不过第二篇也很简单。 https://blog.csdn.net/ab_use/article/details/50433635 https://cosx.org/2014/02/svd-and-i ...
分类:
其他好文 时间:
2018-07-10 23:44:24
阅读次数:
316
numpy与opencv 结果不一样,符号也不一样 [[-370.82513189 176.4954924 ] [-331.78746884 -429.58294685]]npU[[-0.3161301 -0.94871585] [-0.94871585 0.3161301 ]][[-0.31613 ...
分类:
其他好文 时间:
2018-07-05 19:58:57
阅读次数:
286
PCA降维的大致思想就是: 挑选特征明显的、显得比较重要的信息保留下来。 那么关键就是【特征明显的,重要的信息】如何选择? 选择标准有两个:1: 同一个维度内的数据,方差大的比较明显,因为方差大表示自己和平均水平差异大,有个性,降维后也最可能分的开~2: 两个不同维度间关联度越小越好,因为关联度小表 ...
分类:
其他好文 时间:
2018-06-21 22:35:53
阅读次数:
183
奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SV ...
分类:
其他好文 时间:
2018-06-15 21:47:58
阅读次数:
191