本篇主要介绍PCA(Principal Components Analysis, 主成分分析),也是一种降维方法,但是该方法比较直接,只需计算特征向量就可以进行降维了。本篇对应的视频是公开课的第14个视频,该视频的前半部分为因子分析模型的EM求解,已写入笔记13,本篇只是后半部分的笔记,所以内容较少。...
分类:
其他好文 时间:
2014-07-09 12:45:57
阅读次数:
196
我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩的变化。如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值。实际上,上述的一段话既讲...
分类:
其他好文 时间:
2014-07-06 23:22:06
阅读次数:
243
人脸识别中矩阵的维数n>>样本个数m。计算矩阵A的主成分,根据PCA的原理,就是计算A的协方差矩阵A'A的特征值和特征向量,但是A'A有可能比较大,所以根据A'A的大小,可以计算AA'或者A'A的特征值,原矩阵和其转置矩阵的特征值是一样的,只是特征向量不一样。假如我们的数据按行存放,A是m*n的矩阵...
分类:
其他好文 时间:
2014-07-01 00:50:18
阅读次数:
506
[问题2014S14] 解答首先, 满足条件的 \(\varphi\) 的全体特征值都为零. 事实上,
任取\(\varphi\) 的特征值 \(\lambda\), 对应的特征向量为 \(0\neq\xi\in V\),即
\(\varphi(\xi)=\lambda\xi\),则由假设可得 \[...
分类:
其他好文 时间:
2014-06-07 22:44:35
阅读次数:
263
文本特征向量 经典的向量空间模型(VSM: Vector Space
Model)由Salton等人于60年代提出,并成功地应用于著名的SMART文本检索系统。VSM概念简单,把对文本内容的处理简化为向量空间中的向量运算,并且它以空间上的相似度表达语义的相似度,直观易懂。当文档被表示为文档空间的向量...
分类:
其他好文 时间:
2014-06-07 06:02:47
阅读次数:
248
首先,SimHash算法主要是用于文本去重的。文本去重的第一步就是判断文本的相似度,如果两个文本的相似度很
高,那么我们可以认为它们是相同的文本。
对于文本相似度的计算,传统的方法是使用向量空间模型,即Vector Space Model,即VSM,VSM计算文本相似度
的方法是这样的:先对文本进行分词,提取出特征词,然后建立文本向量,把相似度的计算转化成某种特征向量距离
的计算,比...
分类:
其他好文 时间:
2014-06-02 05:02:30
阅读次数:
500
$\bf命题:$设$A$为$n$阶复方阵,则存在$n$维向量$\alpha
$,使得$\alpha,A\alpha,\cdots,A^{n-1}\alpha$线性无关的充要条件是$A$的任一特征根恰有一个线性无关的特征向量参考答案$\bf命题:$
分类:
其他好文 时间:
2014-05-26 11:53:03
阅读次数:
186
迷惑很久,终于想通。其实是一种数据的处理方法,可以简化数据。矩阵乘特征向量就是在其方向的投影。这点类似于向量点积既是投影。通过求特征值和向量,把矩阵数据投影在一个正交的空间,而且投影的大小就是特征值。这样就直观体现了数据的基本特征。最大特征值并不是说数据在所有方向的投影的最大值,而仅限于正交空间的某...
分类:
其他好文 时间:
2014-05-10 00:42:13
阅读次数:
198
$\bf命题1:$设$A,B \in {M_n}\left(
F\right)$且矩阵$A$各特征值互异,若$AB=BA$,则$(1)$$A,B$可同时相似对角化$(2)$$A,B$有公共的特征向量$(3)$存在唯一的次数不超过$n-1$的多项式$f\left(
x \right) \in F\le...
分类:
其他好文 时间:
2014-05-04 19:33:32
阅读次数:
454