奇异值分解(SVD)原理与在降维中的应用 https://www.cnblogs.com/pinard/p/6251584.html 最通俗易懂的PCA主成分分析推导 https://blog.csdn.net/u012526436/article/details/80868294,https:// ...
分类:
其他好文 时间:
2019-01-21 16:01:29
阅读次数:
208
SVD(singular value decomposition),翻译成中文就是奇异值分解。SVD的用处有很多,比如:LSA(隐性语义分析)、推荐系统、特征压缩(或称数据降维)。SVD可以理解为:将一个比较复杂的矩阵用更小更简单的3个子矩阵的相乘来表示,这3个小矩阵描述了大矩阵重要的特性 Apri ...
分类:
编程语言 时间:
2018-12-28 15:26:29
阅读次数:
219
参考:http://www.cnblogs.com/pinard/p/6251584.html 酉矩阵,关于矩阵的问题,还是很复杂的。 只有方阵才可以进行特征值分解, 但是如果行不等于列,即不是方阵,还能进行特征值分解吗? 答案是可以的,此时我们的svd登场了。【是不是用奇异值代替了特征值】 奇异值 ...
分类:
其他好文 时间:
2018-12-24 16:35:20
阅读次数:
101
Lecture 7 神经网络二 课程内容记录:https://zhuanlan.zhihu.com/p/21560667?refer=intelligentunit 1.协方差矩阵: 协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变 ...
分类:
其他好文 时间:
2018-12-23 17:56:00
阅读次数:
145
注: 字典学习也是一种数据降维的方法,这里我用到SVD的知识,对SVD不太理解的地方,可以看看这篇博客: "《SVD(奇异值分解)小结 》" 。 1、字典学习思想 字典学习的思想应该源来实际生活中的字典的概念。字典是前辈们学习总结的精华,当我们需要学习新的知识的时候,不必与先辈们一样去学习先辈们所有 ...
分类:
其他好文 时间:
2018-12-09 16:31:58
阅读次数:
1026
1.设A为n阶矩阵,若存在常数λ及n维非零向量x,使得Ax=λx,则称λ是矩阵A的特征值,x是A属于特征值λ的特征向量。A的所有特征值的全体,叫做A的谱,记为λ(A)2.特征分解(Eigendecomposition),又称谱分解(Spectraldecomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。需要注意只有对可对角化矩阵才可以施以特征分解。一个矩阵的一组特征向量
分类:
编程语言 时间:
2018-12-06 20:25:26
阅读次数:
259
在文本主题模型之潜在语义索引(LSI)中,我们讲到LSI主题模型使用了奇异值分解,面临着高维度计算量太大的问题。这里我们就介绍另一种基于矩阵分解的主题模型:非负矩阵分解(NMF),它同样使用了矩阵分解,但是计算量和处理速度则比LSI快,它是怎么做到的呢? 1. 非负矩阵分解(NMF)概述 非负矩阵分 ...
分类:
其他好文 时间:
2018-12-04 13:11:14
阅读次数:
273
SVD奇异值分解 1 正交矩阵 正交矩阵对应的行(列)向量都是相互正交的单位向量,且满足逆矩阵等于转置矩阵。 正交矩阵对应的变换为正交变换,正交变换映射表现为旋转和反射: 正交变换不改变向量的尺寸和夹角,如图,对应在正交坐标系基向量为[e1,e2]下的A为[a,b],对应进行正交变换后,只是对A用另 ...
分类:
其他好文 时间:
2018-11-24 11:44:21
阅读次数:
336
矩阵分解是将矩阵拆解成多个矩阵的乘积,常见的分解方法有 三角分解法、QR分解法、奇异值分解法。三角分解法是将原方阵分解成一个上三角矩阵和一个下三角矩阵,这种分解方法叫做LU分解法。进一步,如果待分解的矩阵A是正定的,则A可以唯一的分解为 \[{\bf{A = L}}{{\bf{L}}^{\bf{T} ...
分类:
其他好文 时间:
2018-11-18 11:26:08
阅读次数:
1089
奇异值分解 作为PCA的经典应用之一,是在文本分类中,这样的方法有一个专有的名字,叫潜在语义索引(LSI , laten semantic indexing )。这部分需要注意的是,在文本分类中,不需要先进行归一化处理(PCA 要求归一化处理),因为这里考虑了词语出现的次数。鉴于课件空缺,这里从网上 ...
分类:
其他好文 时间:
2018-11-04 19:36:08
阅读次数:
229