码迷,mamicode.com
首页 >  
搜索关键字:奇异值分解    ( 166个结果
PCA和SVD最佳理解
奇异值分解(SVD)原理与在降维中的应用 https://www.cnblogs.com/pinard/p/6251584.html 最通俗易懂的PCA主成分分析推导 https://blog.csdn.net/u012526436/article/details/80868294,https:// ...
分类:其他好文   时间:2019-01-21 16:01:29    阅读次数:208
传统机器算法
SVD(singular value decomposition),翻译成中文就是奇异值分解。SVD的用处有很多,比如:LSA(隐性语义分析)、推荐系统、特征压缩(或称数据降维)。SVD可以理解为:将一个比较复杂的矩阵用更小更简单的3个子矩阵的相乘来表示,这3个小矩阵描述了大矩阵重要的特性 Apri ...
分类:编程语言   时间:2018-12-28 15:26:29    阅读次数:219
svd 奇异值分解
参考:http://www.cnblogs.com/pinard/p/6251584.html 酉矩阵,关于矩阵的问题,还是很复杂的。 只有方阵才可以进行特征值分解, 但是如果行不等于列,即不是方阵,还能进行特征值分解吗? 答案是可以的,此时我们的svd登场了。【是不是用奇异值代替了特征值】 奇异值 ...
分类:其他好文   时间:2018-12-24 16:35:20    阅读次数:101
Cs231n课堂内容记录-Lecture 7 神经网络二
Lecture 7 神经网络二 课程内容记录:https://zhuanlan.zhihu.com/p/21560667?refer=intelligentunit 1.协方差矩阵: 协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变 ...
分类:其他好文   时间:2018-12-23 17:56:00    阅读次数:145
字典学习(Dictionary Learning, KSVD)详解
注: 字典学习也是一种数据降维的方法,这里我用到SVD的知识,对SVD不太理解的地方,可以看看这篇博客: "《SVD(奇异值分解)小结 》" 。 1、字典学习思想 字典学习的思想应该源来实际生活中的字典的概念。字典是前辈们学习总结的精华,当我们需要学习新的知识的时候,不必与先辈们一样去学习先辈们所有 ...
分类:其他好文   时间:2018-12-09 16:31:58    阅读次数:1026
python3-特征值,特征分解,SVD奇异值分解
1.设A为n阶矩阵,若存在常数λ及n维非零向量x,使得Ax=λx,则称λ是矩阵A的特征值,x是A属于特征值λ的特征向量。A的所有特征值的全体,叫做A的谱,记为λ(A)2.特征分解(Eigendecomposition),又称谱分解(Spectraldecomposition)是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。需要注意只有对可对角化矩阵才可以施以特征分解。一个矩阵的一组特征向量
分类:编程语言   时间:2018-12-06 20:25:26    阅读次数:259
文本主题模型之非负矩阵分解(NMF)
在文本主题模型之潜在语义索引(LSI)中,我们讲到LSI主题模型使用了奇异值分解,面临着高维度计算量太大的问题。这里我们就介绍另一种基于矩阵分解的主题模型:非负矩阵分解(NMF),它同样使用了矩阵分解,但是计算量和处理速度则比LSI快,它是怎么做到的呢? 1. 非负矩阵分解(NMF)概述 非负矩阵分 ...
分类:其他好文   时间:2018-12-04 13:11:14    阅读次数:273
SVD奇异值分解
SVD奇异值分解 1 正交矩阵 正交矩阵对应的行(列)向量都是相互正交的单位向量,且满足逆矩阵等于转置矩阵。 正交矩阵对应的变换为正交变换,正交变换映射表现为旋转和反射: 正交变换不改变向量的尺寸和夹角,如图,对应在正交坐标系基向量为[e1,e2]下的A为[a,b],对应进行正交变换后,只是对A用另 ...
分类:其他好文   时间:2018-11-24 11:44:21    阅读次数:336
矩阵分解----Cholesky分解
矩阵分解是将矩阵拆解成多个矩阵的乘积,常见的分解方法有 三角分解法、QR分解法、奇异值分解法。三角分解法是将原方阵分解成一个上三角矩阵和一个下三角矩阵,这种分解方法叫做LU分解法。进一步,如果待分解的矩阵A是正定的,则A可以唯一的分解为 \[{\bf{A = L}}{{\bf{L}}^{\bf{T} ...
分类:其他好文   时间:2018-11-18 11:26:08    阅读次数:1089
奇异值分解
奇异值分解 作为PCA的经典应用之一,是在文本分类中,这样的方法有一个专有的名字,叫潜在语义索引(LSI , laten semantic indexing )。这部分需要注意的是,在文本分类中,不需要先进行归一化处理(PCA 要求归一化处理),因为这里考虑了词语出现的次数。鉴于课件空缺,这里从网上 ...
分类:其他好文   时间:2018-11-04 19:36:08    阅读次数:229
166条   上一页 1 2 3 4 5 6 ... 17 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!