本文中,我会根据下大家image classification常用的cnn模型,针对cifar10(for 物体识别),mnist(for 字符识别)& ImageNet(for 物体识别)做一个model 总结。
本文不讲coding(coding请见Convolution Neural Network (CNN) 原理与实现篇)
本文不涉及公司内部资料,纯公开资料汇总
好,本文就从数据集说起,对数据集不熟悉的小伙伴请先去了解下这3个数据集,下面我们针对每个数据集画出其通用模型。...
分类:
其他好文 时间:
2015-01-07 16:54:14
阅读次数:
159
前段时间一直在关注 CNN 的实现,查看了 caffe 的代码以及 convnet2 的代码。目前对单机多卡的内容比较感兴趣,因此特别关注 convnet2 关于 multi-GPU 的支持。
其中 cuda-convnet2 的项目地址发布在:Google Code:cuda-convnet2
关于 multi-GPU 的一篇比较重要的论文就是:One weird trick for parallelizing convolutional neural networks
本文也将针对这篇文章给出分析。...
分类:
Web程序 时间:
2015-01-06 11:54:57
阅读次数:
234
在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。
为什么可以通过降低维度呢?
因为图像具有一种“静态性”的属性,这也就意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,人们可以计算图像一个区域上的某个特定特征的平均值...
分类:
其他好文 时间:
2015-01-06 00:56:15
阅读次数:
339
LRN全称为Local Response Normalization,即局部响应归一化层,具体实现在CAFFE_ROOT/src/caffe/layers/lrn_layer.cpp和同一目录下lrn_layer.cu中。
该层需要参数有:
norm_region: 选择对相邻通道间归一化还是通道内空间区域归一化,默认为ACROSS_CHANNELS,即通道间归一化;...
分类:
其他好文 时间:
2014-12-19 23:30:21
阅读次数:
583
CNN的内容啦,CNN讲起来有些纠结,你可以事先看看convolution和pooling(subsampling),还有这篇:tornadomeet的博文
分类:
Web程序 时间:
2014-12-14 14:34:29
阅读次数:
399
http://www.geekcome.com/content-10-3761-1.htmlhttp://www.geekcome.com/content-10-3761-1.htmlhttp://blog.csdn.net/zouxy09http://blog.csdn.net/celeryche...
分类:
其他好文 时间:
2014-12-11 00:10:25
阅读次数:
216
作者:zhxfl邮箱:zhxfl##mail.ustc.edu.cn主页:http://www.cnblogs.com/zhxfl/p/4155236.html第1个版本blog在这里:http://www.cnblogs.com/zhxfl/p/4134834.html第2个版本github:ht...
分类:
其他好文 时间:
2014-12-10 14:08:16
阅读次数:
330
斯坦福大学建立了一个可以对图像内容产生自然语言描述的模型NeuralTalk,它是一个开源的Python工具,它可以从图像生成文本描述。它实现了Google (Vinyals等,卷积神经网络CNN + 长短期记忆LSTM) 和斯坦福 (Karpathy and Fei-Fei, CNN + 递归神经网络RNN)的算法。它可以从一副图像用递归神经网络(LSTM或RNN)得到一句描述这幅图像的话。...
分类:
其他好文 时间:
2014-12-09 12:21:19
阅读次数:
1058
content概述文字识别系统LeNet-5简化的LeNet-5系统卷积神经网络的实现问题深度神经网路已经在语音识别,图像识别等领域取得前所未有的成功。本人在多年之前也曾接触过神经网络。本系列文章主要记录自己对深度神经网络的一些学习心得。第二篇,讲讲经典的卷积神经网络。我不打算详细描述卷积神经网络的...
分类:
其他好文 时间:
2014-12-09 00:25:41
阅读次数:
442