一、概述 两种神经网络: 全连接神经网络 卷积神经网络(局部连接,相对于全连接而言) 全连接神经网络 卷积神经网络(局部连接,相对于全连接而言) 全连接神经网络 weight太多了,导致计算量太大 pooling(池化): 特征聚集、降维(降低维度)、光滑 目的: 降低输出规模 增加可解释性 避免丢 ...
分类:
其他好文 时间:
2017-10-25 19:57:41
阅读次数:
232
图示池化层(前向传播) 池化层其实和卷积层有点相似,有个类似卷积核的窗口按照固定的步长在移动,每个窗口做一定的操作,按照这个操作的类型可以分为两种池化层: MAC (max pooling)在窗口中取最大值当做结果 AVG (average pooling)在窗口中取平均值当做结果 池化层的反向传播 ...
分类:
其他好文 时间:
2017-10-18 13:18:21
阅读次数:
183
视觉层包括Convolution, Pooling, Local Response Normalization (LRN), im2col等层。 1、Convolution层: 就是卷积层,是卷积神经网络(CNN)的核心层。 层类型:Convolution lr_mult: 学习率的系数,最终的学习 ...
分类:
其他好文 时间:
2017-10-06 20:03:55
阅读次数:
196
在使用fast rcnn以及faster rcnn做检测任务的时候,涉及到从图像的roi区域到feature map中roi的映射,然后再进行roi_pooling之类的操作。比如图像的大小是(600,800),在经过一系列的卷积以及pooling操作之后在某一个层中得到的feature map大小 ...
分类:
其他好文 时间:
2017-09-25 17:28:06
阅读次数:
213
roi pooling是先进行roi projection(即映射)然后再池化 映射是把用来训练的图片的roi映射到最后一层特征层(即卷积层)。方法其实很简单,图片经过特征提取后,到最后一层卷积层时,真个图片是原始图片的1/16,你把roi的4个坐标都乘以1/16,也就变成了在这个卷积层上对应的坐标 ...
分类:
其他好文 时间:
2017-09-24 14:35:19
阅读次数:
198
max pooling 在不同的 depth 上是分开执行的,且不需要参数控制。也就是说,pooling之后,feature map的维度不会改变 ...
分类:
其他好文 时间:
2017-09-24 14:30:56
阅读次数:
109
CNN中减少网络的参数的三个思想: 1) 局部连接(Local Connectivity) 2) 权值共享(Shared Weights) 3) 池化(Pooling) 局部连接 局部连接是相对于全连接来说的。全连接示意图如下: 比如说,输入图像为1000*1000大小,即输入层有1000*1000 ...
分类:
其他好文 时间:
2017-09-24 00:29:58
阅读次数:
360
本文主要是学习下Linear Decoder已经在大图片中经常采用的技术convolution和pooling,分别参考网页http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial中对应的章节部分。 Linear Decoders: ...
分类:
其他好文 时间:
2017-09-21 11:23:24
阅读次数:
153
throwing away too much information http://deeplearning.net/tutorial/lenet.html http://ufldl.stanford.edu/tutorial/supervised/Pooling/ ...
分类:
其他好文 时间:
2017-09-19 15:12:02
阅读次数:
187
使用Caffe 跑 Google 的Inception V2 对输入图片的shape有要求,某些shape输进去可能会报错。 Inception model中有从conv和pooling层concat的操作,而conv和pooling的output输出计算方式不完全一样。解决方案: 1. 按照原来p ...
分类:
其他好文 时间:
2017-09-09 11:50:19
阅读次数:
321