目录 举例 参考资料 网中网结构通过多个分支的运算(卷积或池化),将分支上的运算结果在深度上连接 举例 一个3*3*2的张量, 与3个1*1*2的卷积核分别same卷积,步长=1, 与2个2*2*2的卷积核分别same卷积,步长=1, 与1个3*3*2的掩码最大值same池化,步长=1, 将得到的这 ...
分类:
Web程序 时间:
2019-07-21 23:57:44
阅读次数:
221
目录 感受野 多个小卷积核连续卷积和单个大卷积核卷积的作用相同 小卷积核的优势 参考资料 感受野 在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入 ...
分类:
其他好文 时间:
2019-07-19 18:34:44
阅读次数:
117
目录 神经网络的卷积、池化、拉伸 LeNet网络结构 LeNet在MNIST数据集上应用 参考资料 LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。如今各大深度学习框架中所使用的LeNet ...
分类:
Web程序 时间:
2019-07-15 19:57:35
阅读次数:
328
卷积神经网络是一种前馈神经网络,是受生物学上感受野的机制提出的,CNN在结构上有三个特性:局部连接、权值共享、时间或空间上的次采样。卷积神经网络在图像处理领域使用得十分广泛,原因在于CNN能够在一定程度上保持图像平移、缩放和扭曲不变性。 一个卷积神经网络通常由以下几个部分组成:输入层、卷积层、池化层 ...
分类:
其他好文 时间:
2019-06-28 22:39:26
阅读次数:
126
Lenet 神经网络结构为: ①输入为 32*32*1 的图片大小,为单通道的输入; ②进行卷积,卷积核大小为 5*5*1,个数为 6,步长为 1,非全零填充模式; ③将卷积结果通过非线性激活函数; ④进行池化,池化大小为 2*2,步长为 1,全零填充模式; ⑤进行卷积,卷积核大小为 5*5*6,个 ...
分类:
Web程序 时间:
2019-06-25 13:37:58
阅读次数:
223
线程池使用了一种池化技术,和很多其他池化技术一样,都是为了更高效的利用资源,例如链接池,内存池等等 线程池一共有五种状态,运行状态,待关闭状态,停止状态,整理状态,终止状态,一个线程池的核心参数有很多,每个参数都有着特殊的作用,各个参数聚合在一起 后将完成整个线程池的完整工作,每一个工作线程中都维持 ...
分类:
编程语言 时间:
2019-06-19 00:23:02
阅读次数:
93
卷积层池化和激活函数的顺序 简单来讲,先池化后激活和先激活后池化得到的效果是一样的,先池化进行了下采样,那么在激活函数的时候就减少了消耗 "Activation function after pooling layer or convolutional layer?" ...
分类:
其他好文 时间:
2019-06-04 12:32:54
阅读次数:
220
线程池是一种重复利用既有线程的池化技术 ,它大量减少了线程的创建初始化过程,也可以防止海量线程创建占尽资源的风险。 任务提交过程 学习使用线程池的使用,我们都大概知道这样一个过程,如图: 这个是一个Runnable实例提交到线程池的过程,大体分为4个步骤: 1)判断当前线程数量是否小于核心线程数量, ...
分类:
其他好文 时间:
2019-05-31 23:14:12
阅读次数:
129
深度学习相关概念整理 数值梯度和解析梯度 数值梯度就是通过梯度得定义去计算出来的梯度:给予x_i一个非常小的偏移量,去计算出y的偏移量,最后用y的偏移去除以x_i的偏移就是在x_i处的偏导数。 解析梯度就是对目标函数进行直接求偏导,得到的偏导式所算出来的梯度。 CNN中的卷积层与池化层 卷积层,就是 ...
分类:
其他好文 时间:
2019-05-27 12:00:52
阅读次数:
115
mnist练手,去掉隐藏层,去掉激活函数(线性变化),去掉池化操作(防止过拟合) 可以将结果简单显示界面 ...
分类:
编程语言 时间:
2019-05-23 21:02:22
阅读次数:
127