码迷,mamicode.com
首页 > 其他好文 > 详细

常见神经网络

时间:2020-02-24 13:10:57      阅读:125      评论:0      收藏:0      [点我收藏+]

标签:agg   区域   效果   内存   改进   class   play   height   模型   

1、感知野:

在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)

上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域,如图1所示。

 

感受野(Receptive Field),指的是神经网络中神经元“看到的”输入区域,在卷积神经网络中,feature map上某个元素的计算受输入图像上某个区域的影响,这个区域即该元素的感受野。

卷积神经网络中,越深层的神经元看到的输入区域越大,如下图所示,kernel size 均为3×33×3,stride均为1,绿色标记的是Layer2Layer2 每个神经元看到的区域,黄色标记的是Layer3Layer3 看到的区域,

具体地,Layer2Layer2每个神经元可看到Layer1Layer1 上 3×33×3 大小的区域,Layer3Layer3 每个神经元看到Layer2Layer2 上 3×33×3 大小的区域,该区域可以又看到Layer1Layer1上 5×55×5 大小的区域。

技术图片

 

 

 2、VGG

该网络是在ILSVRC 2014上的相关工作,主要工作是证明了增加网络的深度能够在一定程度上影响网络最终的性能。

VGG有两种结构,分别是VGG16和VGG19,两者并没有本质上的区别,只是网络深度不一样。

VGG16相比AlexNet的一个改进是采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。

对于给定的感受野(与输出有关的输入图片的局部大小),采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。

简单来说,在VGG中,使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5*5卷积核,这样做的主要目的是在保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了神经网络的效果。

 

VGG缺点:
1.VGG耗费更多计算资源,并且使用了更多的参数(这里不是3x3卷积的锅),导致更多的内存占用(140M)。

其中绝大多数的参数都是来自于第一个全连接层。VGG可是有3个全连接层!

 

3、AlexNet

AlexNet 总体结构和 LeNet 相似,但是有极大改进:

  • 由五层卷积和三层全连接组成,输入图像为三通道 224x224 大小,网络规模远大于 LeNet
  • 使用了 ReLU 激活函数
  • 使用了 Dropout,可以作为正则项防止过拟合,提升模型鲁棒性
  • 一些很好的训练技巧,包括数据增广、学习率策略、weight decay 等
 
4、LeNet
用于手写数字识别,可以看到,卷积神经网络的基本框架已经有了,卷积、激活、池化和全连接,这几个基本组件都完备了。

 

5、ImageNet项目是一个用于视觉对象识别软件研究的大型可视化数据库。

ImageNet、CIFAR、MNIST 或 IMDB 都是数据集

 

常见神经网络

标签:agg   区域   效果   内存   改进   class   play   height   模型   

原文地址:https://www.cnblogs.com/h694879357/p/12356113.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!