码迷,mamicode.com
首页 >  
搜索关键字:learning    ( 4460个结果
【learning log】Linux network programming
DNS host entry 包含 DNS database 中有关某一 domin name 或 ip address 的 DNS 信息。1 struct hostent{2 char *h_name;3 char *h_aliases;4 int h_addrtype;5 ...
分类:Web程序   时间:2014-08-19 14:11:15    阅读次数:210
卷积特征提取与池化(Pooling)——处理大型图像
在之前的章节中,我们已经很好地解决了手写体识别问题(维数为28*28)。但如果是更大的图像(维数为96*96)呢?如果你还是要学习400个特征,那么网络权重参数就有400*96*96即近400万个。     卷积特征提取 如果我们从大型彩色图像(64*64*3)中随机抽取一些小patch(8*8),学到了一些特征,然后用这些特作为滤波器去扫过整张大图,即逐行逐列做卷积。这样做可以大幅减小网...
分类:其他好文   时间:2014-08-18 18:41:59    阅读次数:820
关于metric learning的人脸识别学习
今年暑假在北京自动化所做“大学生研究计划”,从7月7号-8月20号。导师和师兄人都很nice,度过了一个有收获的暑假吧!我对人脸识别的理解:比较两个人脸是不是相似,而图片的存储是矩阵,那我们就是比较这两个矩阵有多近,如果“很近”,那就是同一个人嘛,相反,如果相差很大,那就不是一个人。如何来判断两个矩...
分类:其他好文   时间:2014-08-18 16:08:52    阅读次数:179
线性解码器——解决数据缩放问题
稀疏自编码器效果不错,但是有个固有缺陷:必须对输入数据的范围缩放到(0,1)。   设想一个图像如果不经预处理,直接把大于1的值输入稀疏自编码器,那么被sigmoid一下,就成了(0,1)的范围了,再被sigmoid一下,还是在(0,1)范围。这样残差根本没办法算,因为经过了sigmoid变换之后的数据已经不可能与输入数据相等了。   但是如果我们把第三层,原先的sigmoid函数换成恒等...
分类:其他好文   时间:2014-08-16 15:12:00    阅读次数:302
从自我学习到深层网络——建立你的第1个深度网络分类器
自我学习就是稀疏编码器串联一个Softmax分类器,上一节看到,训练400次,准确率为98.2% 在此基础上,我们可以搭建我们的第一个深度网络:栈式自编码(2层)+Softmax分类器   简单地说,我们把稀疏自编码器的输出作为更高一层稀疏自编码器的输入。 和自我学习很像,似乎就是新加了一层,但是其实不然: 新技巧在于,我们这里有个微调的过程,让残差从最高层向输入层传递,微调整个网络权重...
分类:其他好文   时间:2014-08-16 12:37:40    阅读次数:220
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
学习笔记之《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》...
分类:Web程序   时间:2014-08-15 17:50:59    阅读次数:899
linger博客原创性博文导航
linger博客原创性博文导航 http://blog.csdn.net/lingerlanlan 大学研究游戏外挂技术开始了此博客,断断续续写了些博文。后来,开始机器学习和深度学习的研究工作,由于喜欢和热爱,业余时间也经常性学习,并写博文总结。因此,博文越来越多,由于博文是根据时间排序的,看起来有点乱,所以在此处写个导航。 UFLDL学习笔记和编程 ufldl...
分类:其他好文   时间:2014-08-15 00:01:26    阅读次数:372
Multi-Scale Orderless Pooling of Deep Convolutional Activation Features
学习笔记之《Multi-Scale Orderless Pooling of Deep Convolutional Activation Features》...
分类:其他好文   时间:2014-08-14 20:48:29    阅读次数:393
【Stanford Open Courses】Machine Learning:Linear Regression with One Variable (Week 1)
从Ⅱ到Ⅳ都在讲的是线性回归,其中第Ⅱ章讲得是简单线性回归(simple linear regression, SLR)(单变量),第Ⅲ章讲的是线代基础,第Ⅳ章讲的是多元回归(大于一个自变量)。 本文的目的主要是对Ⅱ章中出现的一些算法进行实现,适合的人群为已经看完本章节Stanford课程的学者。本人...
分类:其他好文   时间:2014-08-14 19:42:19    阅读次数:216
aforge.net神经网络保存
using System;using System.Collections.Generic;using System.Text;using AForge.Neuro;using AForge.Neuro.Learning;using System.IO;using System.Runtime.Se...
分类:Web程序   时间:2014-08-14 19:26:49    阅读次数:307
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!