Basic Vector Space Search Engine Theory LA2600– January2, 2004 - presented by Vidiot Overview: A Vector Space Search Engine uses very simple technique ...
分类:
其他好文 时间:
2018-07-17 23:16:53
阅读次数:
224
下面凌乱的小记一下无监督学习 无监督学习 聚类 降维 聚类:数据相似性 相似性的评估:两个数据样本间的距离 距离:欧氏距离 曼哈顿距离 马氏距离 夹角余弦 sklearn 聚类算法 sklearn.cluster,如k means 近邻传播 DBSCAN等 标准的数据输入格式:[样本个数,特征个数] ...
分类:
其他好文 时间:
2018-07-02 20:48:48
阅读次数:
195
link 欧氏距离 标准化欧氏距离 马氏距离 夹角余弦距离 汉明距离 曼哈顿(Manhattan)距离 ...
分类:
其他好文 时间:
2018-06-25 14:58:17
阅读次数:
216
个人感觉相当于L2范式开平方,也相当于针对两个向量的欧氏距离开平方 说的更直白点就是两个向量对应位置相减得到每个位置的差,然后把每个位置的差开平方再相加 前向传播cpp代码: 注意:caffe_cpu_dot做的是点积,点积对应点相乘后还要把所有这些乘积结果相加,不只是做乘积 将bottom0和bo ...
分类:
其他好文 时间:
2018-06-24 19:38:56
阅读次数:
157
双边滤波算法原理 双边滤波是一种非线性滤波器,它可以达到保持边缘、降噪平滑的效果。和其他滤波原理一样,双边滤波也是采用加权平均的方法,用周边像素亮度值的加权平均代表某个像素的强度,所用的加权平均基于高斯分布[1]。最重要的是,双边滤波的权重不仅考虑了像素的欧氏距离(如普通的高斯低通滤波,只考虑了位置 ...
分类:
编程语言 时间:
2018-06-12 12:52:09
阅读次数:
275
素数:质数(prime number)又称素数,有无限个。在大于1的自然数中,除了1和它本身以外不再有其他因数。 欧拉函数:对正整数n,欧拉函数是小于n的正整数中与n互质的 数 的数目。 从上式来看,要先找到 x 的所有的质因数。然后才能用上式求其欧拉函数。 注意:每种质因数只一个。 比如12=2* ...
分类:
其他好文 时间:
2018-05-02 11:21:10
阅读次数:
180
1. 基本形式 f(æ) = ω1 X1 + ω2 X2 十...+ωdXd + b , 2.线性回归 均方误差有非常好的几何意义--它对应了常用的欧几里得距离或简称"欧 氏距离" (Euclidean distance). 基于均方误差最小化来进行模型求解的方法称为"最小二乘法" (least s ...
分类:
其他好文 时间:
2018-04-26 12:05:17
阅读次数:
287
1. 欧氏距离(Euclidean Distance) 欧氏距离是最容易直观理解的距离度量方法,我们小学、初中和高中接触到的两个点在空间中的距离一般都是指欧氏距离。 二维平面上点a(x1,y1)与b(x2,y2)间的欧氏距离: 三维空间点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离: ...
分类:
其他好文 时间:
2018-04-24 17:35:43
阅读次数:
528
无监督学习 1、简介 无监督学习 是一种对不含标记的数据建立模型的机器学习范式。最常见的无监督学习方法是 聚类 ,就是讲无标记的数据分成几种集群,这些集群通常是根据某种相似度指标进行的,如欧氏距离(Euclidean distance),常用领域有:数据挖掘、医学影像、股票市场分析、计算机视觉、市场 ...
分类:
其他好文 时间:
2018-02-14 10:35:37
阅读次数:
388
Python实现Knn算法 关键词:KNN、K-近邻(KNN)算法、欧氏距离、曼哈顿距离 KNN是通过测量不同特征值之间的距离进行分类。它的的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法 ...
分类:
编程语言 时间:
2018-02-11 18:05:01
阅读次数:
192