Latent Semantic Analysis 模型,隐性语义分析,也就是我们常说的LSA模型。后面还有他的兄弟PLSA和LDA模型,这个我们后面再说。这几个都是NLP中比较经典的模型!学习这个模型,主要总结到了三个方面:LSA模型可以应用在哪儿?LSA的理论部分,以及LSA的优缺点分析。...
分类:
其他好文 时间:
2014-12-03 15:52:01
阅读次数:
459
1 # 创建数据集,5*7的矩阵 2 def loadExData(): 3 return [[1,1,1,0,0], 4 [2,2,2,0,0], 5 [1,1,1,0,0], 6 [5,5,5,0,0], 7 ...
分类:
编程语言 时间:
2014-11-27 17:40:40
阅读次数:
367
PCA全称为principal componentanalysis,即主成成分分析,用于降维。对数据进行降维有很多原因。比如:
1:使得数据更易显示,更易懂
2:降低很多算法的计算开销
3:去除噪声
一:基本数学概念
1:方差
均值太简单了,不说了。方差是各个数据分别与其和的平均数之差的平方的和的平均数,用字母D表示。计算公式如下:
...
分类:
其他好文 时间:
2014-11-27 14:36:35
阅读次数:
402
1 >>> from numpy import *; 2 >>> U,Sigma,VT=linalg.svd([[1,1],[]7,7]) 3 SyntaxError: invalid syntax 4 >>> U,Sigma,VT=linalg.svd([[1,1],[7,7]]) 5 >>> ....
分类:
编程语言 时间:
2014-11-27 14:22:18
阅读次数:
345
定义:设矩阵A是定义在复数域上的m * n阶矩阵,则存在酉矩阵P、Q使得其中,P、Q为酉矩阵,而(说明:1、上标H表示共轭转置,2、当复数矩阵U满足UHU = UUH = E时,U称为酉矩阵;3、diag表示对角矩阵)A = PDQH 称为A的奇异值分解式;求借A的奇异值分解(1) 令 B = AH...
分类:
其他好文 时间:
2014-11-25 01:31:09
阅读次数:
183
We Recommend a Singular Value Decomposition
我们推荐奇异值分解
奇异值分解可以方便地把一个矩阵(包含我们感兴趣的数据)分解得更加简单和有意义。 本文讲解了奇异值分解的几何解释,顺便也介绍了一些应用。
From http://www.ams.org/samplings/feature-column/fcarc-svd
David Austin,Grand ValleyState University
本文的主题是奇异值分解(singular value...
分类:
其他好文 时间:
2014-11-13 16:37:17
阅读次数:
439
SVD分解SVD分解是LSA的数学基础,本文是我的LSA学习笔记的一部分,之所以单独拿出来,是由于SVD能够说是LSA的基础,要理解LSA必须了解SVD,因此将LSA笔记的SVD一节单独作为一篇文章。本节讨论SVD分解相关数学问题,一个分为3个部分,第一部分讨论线性代数中的一些基础知识,第二部分讨论...
分类:
其他好文 时间:
2014-10-19 16:54:22
阅读次数:
284
降维技术, 首先举的例子觉得很好,因为不知不觉中天天都在做着降维的工作 对于显示器显示一个图片是通过像素点0,1,比如对于分辨率1024×768的显示器,就需要1024×768个像素点的0,1来表示,这里每个像素点都是一维,即是个1024×768维的数据。而其实眼睛真正看到的只是一副二维的图片,这里...
分类:
其他好文 时间:
2014-10-09 22:00:08
阅读次数:
364
SVD分解SVD分解是LSA的数学基础,本文是我的LSA学习笔记的一部分,之所以单独拿出来,是由于SVD能够说是LSA的基础,要理解LSA必须了解SVD,因此将LSA笔记的SVD一节单独作为一篇文章。本节讨论SVD分解相关数学问题,一个分为3个部分,第一部分讨论线性代数中的一些基础知识,第二部分讨论...
分类:
其他好文 时间:
2014-08-23 15:14:31
阅读次数:
299
K-SVD has become a popular dictionary learning method for deriving dictionaries which can sparsely represent the given signals. It is an enhancement of K-means clustering method....
分类:
其他好文 时间:
2014-08-08 21:24:10
阅读次数:
256