斯坦福ML公开课笔记15
我们在上一篇笔记中讲到了PCA(主成分分析)。PCA是一种直接的降维方法,通过求解特征值与特征向量,并选取特征值较大的一些特征向量来达到降维的效果。
本文继续PCA的话题,包括PCA的一个应用——LSI(Latent Semantic Indexing, 隐含语义索引)和PCA的一个实现——SVD(Singular Value Decomposition,奇异值分解),在SVD和LSI结束之后,关于PCA的内容就告一段落。视频的后半段开始讲无监督学习的一种——ICA(Indepen...
分类:
其他好文 时间:
2014-07-22 14:16:14
阅读次数:
314
转载请注明出处:电子科技大学EClab——落叶花开http://www.cnblogs.com/nlp-yekai/p/3848528.htmlSVD,即奇异值分解,在自然语言处理中,用来做潜在语义分析即LSI,或者LSA。最早见文章An introduction to latent semanti...
分类:
编程语言 时间:
2014-07-19 16:10:01
阅读次数:
418
1.矩阵分解假设一个矩阵Data是m行n列,SVD(奇异值分解)将Data分解为U,E,VT
三个矩阵:Datam*n=Um*kEk*kVTk*nE是一个对角矩阵,对角元素为奇异值,对应Data的奇异值,即Data*DataT特征值的平方2.选取特征下面确定选取哪几维特征实现降维,去除噪声和冗余信息...
分类:
其他好文 时间:
2014-05-31 18:45:57
阅读次数:
327
SVD分解(奇异值分解),本应是本科生就掌握的方法,然而却经常被忽视。实际上,SVD分解不但很直观,而且极其有用。SVD分解提供了一种方法将一个矩阵拆分成简单的,并且有意义的几块。它的几何解释可以看做将一个空间进行旋转,尺度拉伸,再旋转三步过程。首先来看一个对角矩阵,几何上,
我们将一个矩阵理解为对...
分类:
其他好文 时间:
2014-05-10 00:51:03
阅读次数:
363
SVD原理:
http://blog.csdn.net/wuyanyi/article/details/7964883
分类:
其他好文 时间:
2014-05-08 14:43:13
阅读次数:
317