1、R-FCN结构 适应全卷积化CNN结构,提出全卷积化设计 共享ResNet的所有卷积层 引入变换敏感性(Translation variance) 1、位置敏感分值图(Position-sensitive score maps) 特殊设计的卷积层 Grid位置信息+类别分值 2、位置敏感池化(P ...
分类:
其他好文 时间:
2019-03-07 10:24:39
阅读次数:
251
原文链接:https://yq.aliyun.com/topic/111 08 反向传播(Back Propagation,简称BP) 算法 在神经网络(甚至深度学习)参数训练中,BP算法占据举足轻重的地位。 实际上BP算法是一个典型的双向算法,但通常强调的是反向传播。 工作流程分两大步: 1. 正 ...
分类:
其他好文 时间:
2019-03-06 01:23:53
阅读次数:
277
相比于MLP(多层感知器)的神经网络,CNN(卷积神经网络)有卷积层和池化层。 在构建MNIST字符集的识别训练过程中,卷积神经网络采用了: 输入层 卷积层1 池化层1 卷积层2 池化层2 平坦层 隐层层 输出层 输入层输入二维的图像,28X28的一个矩阵。 在卷积层1,将输入层的一个矩阵图像,采用 ...
分类:
其他好文 时间:
2019-02-21 17:28:42
阅读次数:
180
我在训练Goolenet inception-v3时候出现了concat错误,因此写下concat层的一些知识点,以供读者跳坑 concat层在inception-v3网络中存在非常明显,之所以需要concat层是由于在之前的卷积池化层进行了卷积核大小的变化 卷积核大小变化的出发点:1.减小sobe ...
分类:
其他好文 时间:
2019-02-18 12:57:37
阅读次数:
133
前言 VGGNet是牛津大学计算机视觉组(VisualGeometry Group)和GoogleDeepMind公司的研究员一起研发的的深度卷积神经网络。VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠3*3的小型卷积核和2*2的最大池化层,VGGNet成功地构筑了16~19层 ...
分类:
其他好文 时间:
2018-12-25 22:25:03
阅读次数:
277
其实现在用的最多的是faster rcnn,等下再弄项目~~~ 图像经过基础网络块,三个减半模块,每个减半模块由两个二维卷积层,加一个maxPool减半(通道数依次增加【16,32,64】) 然后是多个(3个)多尺度特征块。每个特征块依次都是一个减半模块,通道数固定128 最后一个全局最大池化层模块 ...
分类:
其他好文 时间:
2018-12-20 14:47:47
阅读次数:
377
1.卷积神经网络的激活函数--Relu 使用新的激活函数--Relu,公式如下: 2.卷积神经网络的网络架构:卷积层、Pooling层(也叫池化层)、全连接层 2.1卷积层的计算公式: 其中D为卷积层的深度 附:图像大小、步幅和卷积后的Feature Map大小关系: W、H:卷积前原图像的宽、高( ...
分类:
其他好文 时间:
2018-12-17 16:58:51
阅读次数:
200
#!/usr/bin/env pythonimport tensorflow as tfinput_num = 64output_num = 2def create_file(path,output_num): #write = tf.python_io.TFRecordWriter('train. ...
分类:
其他好文 时间:
2018-12-16 11:13:15
阅读次数:
168
本文来自《Large Margin Softmax Loss for Convolutional Neural Networks》,时间线为2016年12月,是北大和CMU的作品。 0 引言 过去十几年,CNN被应用在各个领域。大家设计的结构,基本都包含卷积层和池化层,可以将局部特征转换成全局特征, ...
分类:
其他好文 时间:
2018-12-14 15:00:50
阅读次数:
194
1、CNN的层级结构包括: 数据输入层/ Input layer 卷积计算层/ CONV layer ReLU激励层 / ReLU layer 池化层 / Pooling layer 全连接层 / FC layer Batch Normalization层(可能有) 2、一般 CNN 结构依次为: ...
分类:
其他好文 时间:
2018-12-10 14:13:27
阅读次数:
832