目录 使用非对称卷积分解大filters 重新设计pooling层 辅助构造器 使用标签平滑 参考资料 在《深度学习面试题20:GoogLeNet(Inception V1)》和《深度学习面试题26:GoogLeNet(Inception V2)》中对前两个Inception版本做了介绍,下面主要阐 ...
分类:
Web程序 时间:
2019-07-28 15:34:06
阅读次数:
155
先上图看一下Faster R-CNN操作流程: 图片说明:Faster R-CNN=Fast R-CNN+RPN,其中Fast R-CNN结构不变;RPN负责生成proposals,配合最后一层的feature map,使用ROI Pooling,生成fixed length的feature vec ...
分类:
其他好文 时间:
2019-06-24 16:20:23
阅读次数:
107
卷积层池化和激活函数的顺序 简单来讲,先池化后激活和先激活后池化得到的效果是一样的,先池化进行了下采样,那么在激活函数的时候就减少了消耗 "Activation function after pooling layer or convolutional layer?" ...
分类:
其他好文 时间:
2019-06-04 12:32:54
阅读次数:
220
Paper link:https://arxiv.org/pdf/1511.00561.pdf Motivation:为了实际应用,主要是在时间效率和存储空间上做了改进; Introduction: (1)Pipeline: (2)Light 1、带index的pooling: 在SegNet中的P ...
分类:
Web程序 时间:
2019-05-23 16:55:47
阅读次数:
136
FUNCTION 相关系数 code SVM code III CNN main FUNCTION convolution FUNCTION convolution_f1 FUNCTION CNN_upweight FUNCTION init_kernel FUNCTION pooling view ...
分类:
其他好文 时间:
2019-05-23 15:53:11
阅读次数:
115
在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部相连(通过sliding filter)。神经元感受野的值越大表示 ...
分类:
其他好文 时间:
2019-03-31 19:25:56
阅读次数:
234
```python
# 卷积层的实现函数 def convolutional_layer(input, num_input_channels, filter_size, num_filters, use_pooling=True): # 前两个参数是过滤器的尺寸,第三个参数是输入的通道,第四个参数是... ...
分类:
其他好文 时间:
2019-03-29 00:56:51
阅读次数:
320
CNN理解与实现 组成部分 + Convolution Layer + Pool Layer: Max pooling layer Average pooling layer + Full Connected(FC) Layer 需要的函数 注意 + 参数$W$, $b$和数据$X$它们的维度是一样 ...
分类:
其他好文 时间:
2019-03-27 12:38:13
阅读次数:
137
RoIPooling 这个可以在Faster RCNN中使用以便使生成的候选框region proposal映射产生固定大小的feature map 先贴出一张图,接着通过这 ...
分类:
其他好文 时间:
2019-03-03 15:57:39
阅读次数:
233
&创新点 1. 规避R-CNN中冗余的特征提取操作,只对整张图像全区域进行一次特征提取 2. 用ROI pooling层取代最后一层max pooling层,同时引入建议框信息,提取相应建议框特征 3. Fast R-CNN网络末尾采用了并行的不同全连接层,可同时输出分类结果和窗口回归结果,实现了e ...
分类:
编程语言 时间:
2019-03-02 14:46:12
阅读次数:
258