1. 基础回顾 特别详细的总结,参考 http://blog.csdn.net/wangzhiqing3/article/details/7446444 矩阵的奇异值分解 SVD 矩阵与向量相乘的结果与特征值,特征向量有关。 数值小的特征值对矩阵-向量相乘的结果贡献小 1)低秩近似 2)特征降维 2 ...
分类:
编程语言 时间:
2016-06-08 15:54:45
阅读次数:
852
今天:查阅OpenCV中FaceRecognizer类的文档,结果问了老师发现自己用不上,因为我是用HOG做的特征提取; 连接了数据库,可成功打开; 界面添加了若干action; 粗略了解了PCA的原理和用法。 明天:进一步了解主成分分析的原理,并实现将HOG提取出来的特征降维; HOGDescri ...
分类:
其他好文 时间:
2016-04-19 00:20:19
阅读次数:
123
特征值分解
奇异值分解SVD
Python实现SVD
低阶近似
奇异值选取策略
相似度计算
基于物品相似度
基于物品相似度的推荐步骤
利用物品相似度预测评分
基于物品相似度的推荐结果
利用SVD降维
利用SVD降维前后结果比较
基于SVD的图像压缩–阈值处理
基于SVD的图像压缩...
分类:
其他好文 时间:
2016-03-10 17:29:55
阅读次数:
247
0_5.txt
00000000000000110000000000000000
00000000000011111100000000000000
00000000000111111110000000000000
00000000001111111111000000000000
00000000111111111111100000000000
00000001111...
分类:
其他好文 时间:
2016-03-10 17:28:18
阅读次数:
223
t:代表特征,|C|:代表类别总数,ci 代表第i个类别 CF[i][j]:代表term class frequency,即表示在第j个类别的文档中出现了第i个term的文档数 DF[i]:代表term document frequency,即表示样本集中出现了该term的文档数 docsPerCl...
分类:
其他好文 时间:
2015-07-16 16:31:35
阅读次数:
132
t:代表特征,|C|:代表类别总数,ci 代表第i个类别 CF[i][j]:代表term class frequency,即表示在第j个类别的文档中出现了第i个term的文档数 DF[i]:代表term document frequency,即表示样本集中出现了该term的文档数 docsPerCl...
分类:
其他好文 时间:
2015-07-16 13:34:54
阅读次数:
149
一、特征规约/降维:去掉可分性不强和冗余的特征 特征选择:去掉可分性不强的特征 特征抽取/变换:去掉多余的特征,即抽取出来的特征不存在线性or非线性关系 =========================================================================...
分类:
其他好文 时间:
2015-07-10 11:04:11
阅读次数:
95
1,引言
有关模式识别的一个主要问题是维数灾难。我们将在第7章看到维数很容易变得很大。
降低维数的必要性有几方面的原因。计算复杂度是一个方面。另一个有关分类器的泛化性能。
因此,本章的主要任务是:在尽可能保留特征的分类判别信息前提下,来选择重要的和维数少的特征量。这个过程被称作特征选择或者特征降维。
定量描述来讲,选择的特征应该使得类内距离减小,类间距离增大。...
分类:
其他好文 时间:
2014-07-20 10:14:09
阅读次数:
207
一、PCA:PCA是一种用来对图像特征降维的方法,PCA通过将多个变量通过线性变换以选出较少的重要变量。它往往可以有效地从过于“丰富”的数据信息中获取最重要的元素和结构,去除数据的噪音和冗余,将原来复杂的数据降维,揭示隐藏在复杂数据背后的简单结构。近年来,PCA方法被广泛地运用于计算机领域,如数据降...
分类:
其他好文 时间:
2014-05-25 20:43:34
阅读次数:
288