码迷,mamicode.com
首页 >  
搜索关键字:imagenet    ( 175个结果
PReLU与ReLU
PReLU激活函数,方法来自于何凯明paper 《Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification》 PReLU激活 PReLU(Parametric Rectifie ...
分类:其他好文   时间:2017-01-17 18:47:37    阅读次数:575
[转]XNOR-Net ImageNet Classification Using Binary Convolutional Neural Networks
感谢: XNOR-Net ImageNet Classification Using Binary Convolutional Neural Networks ...
分类:Web程序   时间:2017-01-03 16:51:49    阅读次数:359
r-cnn学习(二)
faster r-cnn 1、问题 在fast r-cnn中,proposals已经成为速度提高的瓶颈。在本文中,使用深度网络来计算proposals, 使得与检测网络的计算量相比,proposals的计算量可忽略不计。为此,本文提出了RPN网络(Region Proposal Network), ...
分类:其他好文   时间:2016-11-16 14:54:07    阅读次数:354
复现ResNet
Caffe在Cifar10上复现ResNetResNet在2015年的ImageNet竞赛上的识别率达到了非常高的水平,这里我将使用Caffe在Cifar10上复现论文4.2节的Cifar实验。ResNet的基本模块Caffe实现Cifar10上的实验结果及说明ResNet的基本模块本文参照Torc... ...
分类:Web程序   时间:2016-10-22 00:13:55    阅读次数:538
tensorflow版的bvlc模型
研究相关的图片分类,偶然看到bvlc模型,但是没有tensorflow版本的,所以将caffe版本的改成了tensorflow的: 简单的述说下我对ImageNet的理解吧~~ 首先导入这个图: 下面贴出通用模板: caffe版本的ImageNet模型地址: https://github.com/B ...
分类:其他好文   时间:2016-10-14 17:24:14    阅读次数:263
对CNN模块的分析
对 CNN 模块的分析,该论文(Systematic evaluation of CNN advances on the ImageNet)已经做过了,里面的发现是非常有帮助的: 使用没有 batchnorm 的 ELU 非线性或者有 batchnorm 的 ReLU。 使用一个学习到的 RGB 的 ...
分类:其他好文   时间:2016-09-27 23:04:19    阅读次数:211
《ImageNet Classification with Deep Convolutional Neural Networks》 剖析
《ImageNet Classification with Deep Convolutional Neural Networks》 剖析 CNN 领域的经典之作, 作者训练了一个面向数量为 1.2 百万的高分辨率的图像数据集ImageNet, 图像的种类为1000 种的深度卷积神经网络。并在图像识别 ...
分类:Web程序   时间:2016-08-25 21:18:45    阅读次数:434
Deep Residual Learning
最近在做一个分类的任务,输入为3通道车型图片,输出要求将这些图片对车型进行分类,最后分类类别总共是30个。 开始是试用了实验室师姐的方法采用了VGGNet的模型对车型进行分类,据之前得实验结果是训练后最高能达到92%的正确率,在采用了ImageNet训练过的DataLayer之后,可以达到97%的正 ...
分类:其他好文   时间:2016-08-11 12:38:16    阅读次数:154
caffe 训练imagenet
1.整理得到自己的数据库,并生成自己数据库的列表文件.txt2.将数据库转成lmbp格式3.计算图像均值4.修改网络参数5.得到结果1.整理得到自己的数据库因为前面博文提到的原因,技术水平有限没办法实现主机和虚拟机之间的文件共享,就暂时先用比较麻烦的方法。现在主机上整理好需要的数据集一共四个文件:两 ...
分类:Web程序   时间:2016-07-23 13:38:24    阅读次数:663
论文笔记《ImageNet Classification with Deep Convolutional Neural Network》
一、摘要 了解CNN必读的一篇论文,有些东西还是可以了解的。 二、结构 1、 Relu的好处: 1、在训练时间上,比tanh和sigmod快,而且BP的时候求导也很容易 2、因为是非饱和函数,所以基本不会出现梯度消失的情况 Relu只要控制好learing rate,可以说是完胜之前的激活函数,也因 ...
分类:Web程序   时间:2016-07-21 21:49:07    阅读次数:215
175条   上一页 1 ... 11 12 13 14 15 ... 18 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!