对于PCA,一直都是有个概念,没有实际使用过,今天终于实际使用了一把,发现PCA还是挺神奇的。在OPENCV中使用PCA非常简单,只要几条语句就可以了。1、初始化数据//每一行表示一个样本CvMat* pData = cvCreateMat( 总的样本数, 每个样本的维数, CV_32FC1 );C...
分类:
其他好文 时间:
2014-11-25 16:12:57
阅读次数:
140
在上一篇《DeepLearning 的挑战: Extreme Learning Machine(超限学习机)?》 中介绍了一些ELM与DL 的一些比较,这篇主要介绍ELM的原理。
首先,ELM的核心就是将复杂的迭代过程转变为隐层参数随机产生。
其次,ELM 是一个神经网络,有输入层、隐藏层,输出层。
最后,ELM 的多分类效果优于SVM。
对于训练样本集{xi,ti} i=1-N,...
分类:
其他好文 时间:
2014-11-25 12:48:37
阅读次数:
226
Logistic回归的使用和缺失值的处理从疝气病预测病马的死亡率数据集:UCI上的数据,368个样本,28个特征测试方法:交叉测试实现细节:1.数据中因为存在缺失值所以要进行预处理,这点待会再单独谈2.数据中本来有三个标签,这里为了简单直接将未能存活和安乐死合并了3.代码中计算10次求均值缺失值的处...
分类:
其他好文 时间:
2014-11-25 01:39:42
阅读次数:
245
以前对PCA算法有过一段时间的研究,但没整理成文章,最近项目又打算用到PCA算法,故趁热打铁整理下PCA算法的知识。本文观点旨在抛砖引玉,不是权威,更不能尽信,只是本人的一点体会。主成分分析(PCA)是多元统计分析中用来分析数据的一种方法,它是用一种较少数量的特征对样本进行描述以达到降低特征空间维数...
分类:
编程语言 时间:
2014-11-24 20:52:11
阅读次数:
435
在做计算机视觉的研究中,很多测试样本提供的都是图像序列,那么怎样在不保存一个个图像名的情况下,读入一个文件夹下的图像序列,window下提高能够了一个很好的方法。首先我们先了解下WIN32_FIND_DATA的结构。WIN32_FIND_DATA结构描述了一个有FindFirsFile,FindFi...
分类:
其他好文 时间:
2014-11-22 21:24:23
阅读次数:
192
本文对于高斯混合模型(GMM)进行了简要的讨论。对于单高斯模型,高斯混合模型以及K-means等都进行了简要的介绍以及其关系的梳理,着重介绍了高斯混合模型的参数估计问题,这包括在样本分类已知情况下的MLE算法估计,以及在样本分类未知情况下的EM算法估计。...
分类:
其他好文 时间:
2014-11-22 16:07:13
阅读次数:
339
1.引言在高斯混合和EM算法中,我们运用EM算法拟合混合模型,但是我们得考虑得需要多少的样本数据才能准确识别出数据中的多个高斯模型!看下面两种情况的分析:第一种情况假如有 m 个样本,每个样本的维度是 n, 如果 n»m, 这时哪怕拟合出一个高斯模型都很困难,更不用说高斯混合, 为什么呢? 这和解....
分类:
其他好文 时间:
2014-11-21 23:02:40
阅读次数:
316
局部加权紧接着上面的线性回归中参数求解来继续讲吧。还是以上面的房屋价格的预测,它的中心思想是在对参数进行求解的过程中,每个样本对当前参数值的影响是有不一样的权重的。比如上节中我们的回归方程为(这个地方用矩阵的方法来表示?表示参数,i表示第i个样本,h为在?参数下的预测值):我们的目标是让最小,然后求...
分类:
其他好文 时间:
2014-11-21 20:30:20
阅读次数:
278
在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。 本文的目的就是对常用的相似性度量作一个总结。本文目录:1. 欧氏距离2. 曼....
分类:
Web程序 时间:
2014-11-21 10:30:01
阅读次数:
290
在做svm的时候我们碰到了结构风险最小化的问题,结构风险等于经验风险+vc置信范围,其中的vc置信范围又跟样本的数量和模型的vc维有关,所以我们看一下什么是vc维
首先看一下vc维的定义:对一个指标函数集,如果存在H个样本能够被函数集中的函数按所有可能的2的H次方种形式分开,则称函数集能够把H个样本打散;函数集的VC维就是它能打散的最大样本数目H
例如有个样本,一个函数能够将这h个样本打散,打...
分类:
其他好文 时间:
2014-11-20 15:28:11
阅读次数:
167