曾以为生活是绚丽多彩的, 曾以为爱情是纯洁无暇的,但一切只是以为。。。。。。 站在幸福的顶峰,纵身一跃,所有的一切回归原点。 谁在你心里留下烙印,谁是你心中的过往; 谁曾为你哭泣过;谁懂得在你失落的时候给予关怀。。。。 拥有过 失去过; 珍惜过 放弃过;有些事终会留下遗憾;有些人最终只能深埋...
分类:
其他好文 时间:
2014-08-15 15:58:28
阅读次数:
210
现在,又回归到代码编写了。
其实,安安静静地享受编码的过程,是一个很美好的旅程,从此以后,就尽情享受这一过程吧。
现在,就遇到了在Windows上如何访问和操作超长文件(长度超过256)的问题。此前一直使用open、read、write等Windows原始开发接口,为照顾和Linux、Unix等接口类型的兼容性,没有使用Win32的SDK接口,这下搞不定了。
经过...
分类:
其他好文 时间:
2014-08-14 20:41:53
阅读次数:
293
从Ⅱ到Ⅳ都在讲的是线性回归,其中第Ⅱ章讲得是简单线性回归(simple linear regression, SLR)(单变量),第Ⅲ章讲的是线代基础,第Ⅳ章讲的是多元回归(大于一个自变量)。 本文的目的主要是对Ⅱ章中出现的一些算法进行实现,适合的人群为已经看完本章节Stanford课程的学者。本人...
分类:
其他好文 时间:
2014-08-14 19:42:19
阅读次数:
216
#include"cv.h"
#include"cxcore.h"
#include"highgui.h"
#include<iostream>
#include"function.h"
CvHistogram*histogram2(IplImage*src,intHSize)//返回归一化的histogram
{
IplImage*SrcH=cvCreateImage(cvGetSize(src),8,1);
//IplImage*SrcS=cvCreateImage(cvGetSi..
分类:
其他好文 时间:
2014-08-14 17:11:29
阅读次数:
264
#include"cv.h"
#include"cxcore.h"
#include"highgui.h"
#include<iostream>
#include"function.h"
CvHistogram*histogram2(IplImage*src,intHSize,intSSize)//返回归一化的histogram
{
IplImage*SrcH=cvCreateImage(cvGetSize(src),8,1);
IplImage*SrcS=cvCreateImage(..
分类:
其他好文 时间:
2014-08-14 17:11:19
阅读次数:
275
和基于HSV的陆基移动距离相对比,这个为三维直方图程序:结论:和基于HSV的路基距离相比,效果没有HSV好代码:#include"cv.h"
#include"cxcore.h"
#include"highgui.h"
#include<iostream>
CvHistogram*histogram(IplImage*src,intBSize,intGSize,intRSize)//返回归一化..
分类:
移动开发 时间:
2014-08-14 17:09:49
阅读次数:
422
程序:HSize=30,SSize=32:比例为2.89HSize=20,SSize=20:比例为2.88HSize=50,SSize=50:比例为2.87代码:#include"cv.h"
#include"cxcore.h"
#include"highgui.h"
#include<iostream>
CvHistogram*histogram(IplImage*src,intHSize,intSSize)//返回归一化的histogram..
分类:
移动开发 时间:
2014-08-14 17:09:29
阅读次数:
438
自我学习就是把稀疏自编码器与Softmax回归分类器串联起来。
稀疏编码器是用来无监督学习的,使用无标签数据。
Softmax回归分类器是有监督学习,使用标签数据。
实际生活中,我们能轻松获得大量无标签数据(如从网上随机下载海量图片)
难以获得大量有标签数据(有标签的数据库通常不会太大,而且很贵)
如果我们手头上只有少量标签数据,但是有大量的无标签数据,这是就可以采用自我...
分类:
其他好文 时间:
2014-08-13 13:03:36
阅读次数:
493
决策树(decision tree) 决策树:是一种基本的分类和回归方法。它是基于实例特征对实例进行分类的过程,我们可以认为决策树就是很多if-then的规则集合。 优点:1)训练生成的模型可读性强,我们可以很直观的看出生成模型的构成已经工作方式,因为模型就是由数据属性和类别构成一棵树。 ...
分类:
其他好文 时间:
2014-08-12 21:34:44
阅读次数:
257
Softmax回归就是推广版本的逻辑回归。
只不过逻辑回归是个2分类问题,而Softmax是多分类问题,仅此而已。
Softmax回归在2分类情况下就蜕化成了逻辑回归。
逻辑回归的代价函数
考虑到权重衰减,修改一下就是Softmax回归的代价函数了
这里的权重衰减项是必须的,因为原先的代价函数不是严格凸函数,有无穷个极小值。现在加了这个权重衰减项,函数变成了严格凸函数。L...
分类:
数据库 时间:
2014-08-12 17:10:34
阅读次数:
502