标签:次数 ORC 特征 但我 滑动 上进 stride net 图像
now:
略
上节课我们谈到了全连接层的概念:
对于全连接层而言,我们要做的就是在这些向量上进行操作。
例如:
但是至于卷积层,与前者截然不同的地方就是可以保持空间结构
例如下图:
一张32×32×3的图片,我们并非将它展成长向量,而是保持图片的结构。这个三维输入的结构,变成5×5×3
我们将卷积核在图片上滑动,计算出每一个空间定位时的点积结果。
首先我们采用的卷积核总是会将输入量扩展至完全,所以它们一般是很小的区域,比如这里的5×5×3
然后我们用这个卷积核,在图片和卷积核之间进行卷积运算。——我们要做的就是在图片空间区域上覆盖这个卷积核,然后进行点积运算——也就是将卷积核每个位置元素和与之对应图像区域的像素值相乘,这个区域是从图像上取出的。运算之后我们会得到一个点积结果
这个例子中,我们进行了5×5×3次运算,这个乘法运算的次数,之后我们再加上偏置项。
接下来我们的问题就是:我们如何滑动卷积核并遍历所有空间位置??
从左上角开始,一直滑动并计算
但我们要先决定:你是否按像素逐个滑动的,或者其他滑动方式。
所以:刚才的例子中,我们采用了一卷积核,然后将它在图像的整个平面进行滑移,然后我们输出它的激活映射。
它里面的值就是卷积核在每个位置求得的结果。
当我们在处理卷积层中,我们希望运用多个卷积核。因为每一个卷积核都可以得到一种特殊的模式或者概念。
所以我们会有一组卷积核。
如图:(一个蓝的一个绿的)
同样我们可以进一步:用6个卷积核
这样我们就得到一个6层的激活映射
我们来描述一下如何在卷积神经网络之中使用这些卷积层?
我们的ConvNet基本上是由多个卷积层组成的一个序列,它们依次堆叠,像是在堆叠简单的线性层一样。
之后我们将用激活函数逐一进行处理
如图:
使用多个卷积核,然后每一个卷积核都有一个激活函数
然后结果是你可以把处理好了的叠成一个ConvNet
最后就是学习好了的。
来几个例子:
这是由每个卷积核生成的一些激活函数的例子
当然我们进行了可视化:
例子2:
回到我们第一个的那个32×32×3的图。看看卷积核是如何在图片上滑动并计算的
如图,一直滑动,就像滑动窗口一样。
当然,我们也可以每次滑过2个像素点或者3个之类的。
这取决于实际要求了。
但是,如果我们采用3个像素步伐的话:
这不能匹配!
所以我们要慎重选择!
我们再看一下我们如何计算输出尺寸:可以归纳为一个公式
Output size:
(N - F) / stride + 1
注意,这个公式只有边缘没有被填充的时候才适用
例子:
显然,3的时候不能成功。
最后,我们采用0来填充边界来得到最后我们想要的大小。所以这样我们完全可以在左上角放上一个卷积核
(7 - 1) / 1 + 1 = 7
若是边缘填充了1圈的话,我们还需要一个新的输出。就变成了 9 了(从图像边缘扫描,每行比原来多扫描了2个单元)
所以总结一下:要考虑:步长(stride),卷积核(filter),卷积核大小,步长大小,零填充
一般卷积核大小会3×3,5×5,7×7
这都是很常用的
例子:
很容易得到答案。
但是:这一层的参数有多少?
一定要记住我们还有一个偏置项!
总结:
另一方面,我们也可以用1*1的点积
也可以在这个深度上进行计算,但是就是比较麻烦就是 了
最后,我们可以进到caffe或者torch上看看卷积核详细定义
标签:次数 ORC 特征 但我 滑动 上进 stride net 图像
原文地址:https://www.cnblogs.com/orangestar/p/11371420.html