1 k近邻算法2 模型2.1 距离测量2.2 k值选择2.3 分类决策规则3 kNN的实现——kd树3.1 构造kd树3.2 kd树搜索 1 k近邻算法 k nearest neighbor,k-NN,是一种基本分类与回归的方法,输入为实例的特征向量——对应空间的点,输出为实例的类别,可取多类。kN ...
分类:
编程语言 时间:
2018-03-02 18:40:18
阅读次数:
215
PCA(Principal Component Analysis)不仅仅是对高维数据进行降维,更重要的是经过降维去除了噪声,发现了数据中的模式。 PCA把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的m个特征互不相关。从旧特征到新特征的映射捕 ...
分类:
其他好文 时间:
2018-01-11 16:00:31
阅读次数:
193
局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介绍 一、局部敏感哈希LSH 在很多应用领域中,我们面对和需要处理的数据往往是海量并且具有很高的维度,怎样快速地从海量的高维数据集合中找到与某个数据最相似(距离最近)的一个数据或多个数据成为了一个难点和问题。如果是低维 ...
分类:
其他好文 时间:
2017-12-30 12:11:12
阅读次数:
237
代码: https://github.com/JiJingYu/concat_dataset Demo特点 该代码基于自行编写的H5Imageset类与pytorch中的ConcatDataset接口,主要有以下特点: 有效利用了hdf5读取数据时直接与硬盘交互,无需载入整个数据集到内存中的优势,降 ...
分类:
其他好文 时间:
2017-11-18 11:06:16
阅读次数:
185
1、近邻成分分析(NCA)算法 以上内容转载自:http://blog.csdn.net/chlele0105/article/details/13006443 2、度量学习 在机器学习中,对高维数据进行降维的主要目的是找到一个合适的低维空间,在该空间中进行学习能比原始空间性能更好。每个空间对应了在 ...
分类:
编程语言 时间:
2017-10-24 00:14:39
阅读次数:
997
高维数据稀疏表示-什么是字典学习(过完备词典) http://www.cnblogs.com/Tavion/p/5166695.html ...
分类:
其他好文 时间:
2017-10-07 18:52:33
阅读次数:
145
PCA (Principal Component Analysis) 主成份分析 也称为卡尔胡宁-勒夫变换(Karhunen-Loeve Transform),是一种用于探索高维数据结构的技术。PCA通常用于高维数据集的探索与可视化。还可以用于数据压缩,数据预处理等。PCA可以把可能具有相关性的高维 ...
分类:
编程语言 时间:
2017-08-22 01:50:08
阅读次数:
521
聚类根据给定的样本数据集定义一个描述成对数据点相似度的亲合矩阵,并且计算矩阵的特征值和特征向量 , 然后选择合适 的特征向量聚类不同的数据点。 谱聚类可以在任意形状的样本空间聚类,且收敛于全局最优解,因此在处理高维数据方面存在着明显优势。总的来说,该算法存在一些不足之处。算法在聚类之前需要设置具体应 ...
分类:
其他好文 时间:
2017-08-18 18:36:12
阅读次数:
158
sklearn和numpy.linalg.eig使用pca主成分分析降维 ...
分类:
其他好文 时间:
2017-08-17 00:44:27
阅读次数:
559
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的 ...
分类:
其他好文 时间:
2017-08-11 17:49:58
阅读次数:
209