1.LeNet LeNet是指LeNet-5,它是第一个成功应用于数字识别的卷积神经网络。在MNIST数据集上,可以达到99.2%的准确率。LeNet-5模型总共有7层,包括两个卷积层,两个池化层,两个全连接层和一个输出层。 import torch import torch.nn as nn fr ...
分类:
其他好文 时间:
2019-12-20 12:16:20
阅读次数:
121
原连接:https://blog.csdn.net/XX_123_1_RJ/article/details/86677482 池化的原理或者是过程:pooling是在不同的通道上分开执行的(就是池化操作不改变通道数),且不需要参数控制。然后根据窗口大小进行相应的操作。一般有max pooling、a ...
分类:
其他好文 时间:
2019-12-16 00:06:43
阅读次数:
3038
padding的规则 · padding=‘VALID’时,输出的宽度和高度的计算公式(下图gif为例) 输出宽度:output_width = (in_width-filter_width+1)/strides_width =(5-3+1)/2=1.5【向上取整=2】 输出高度:output_he ...
分类:
其他好文 时间:
2019-12-08 00:56:37
阅读次数:
116
摘要:池化层的主要目的是降维,通过滤波器映射区域内取最大值、平均值等操作。 均值池化:tf.nn.avg_pool(input,ksize,strides,padding) 最大池化:tf.nn.max_pool(input,ksize,strides,padding) input:通常情况下是卷积 ...
分类:
其他好文 时间:
2019-12-07 23:13:44
阅读次数:
273
利用pytorch来构建网络模型,常用的有如下三种方式 前向传播网络具有如下结构: 卷积层--》Relu层--》池化层--》全连接层--》Relu层 对各Conv2d和Linear的解释如下 Conv2d的解释如下 """ Conv2d(in_channels, out_channels, kern ...
分类:
其他好文 时间:
2019-12-03 21:35:28
阅读次数:
122
#验证码识别# 解决办法:将验证码切割成单个字符训练 遇到问题:验证码字符大小不一或重叠 对上述问题的解决:通过CNN(卷积神经网络)直接就是端到端不分割的识别方式 处理验证码:将图片二值化 输入验证码的信息:图片大小、最大字母、表示方法 选2*2(3个卷积层和1个全连接层)的最大池化层和dropo ...
分类:
编程语言 时间:
2019-11-13 19:12:54
阅读次数:
121
讲授卷积神经网络面临的挑战包括梯度消失、退化问题,和改进方法包括卷积层、池化层的改进、激活函数、损失函数、网络结构的改 进、残差网络、全卷机网络、多尺度融合、批量归一化等 大纲: 面临的挑战梯度消失问题退化问题改进的总体思路卷积层的改进用矩阵乘法实现卷积运算池化层的改进激活函数的改进损失函数的改进高 ...
分类:
其他好文 时间:
2019-11-11 23:08:20
阅读次数:
166
1. LeNet(1998) 2.AlexNet(2012):层数更深,同时第一次引入了激活层ReLU,在全连接层引入了Dropout层防止过拟合 3.VGGNet(2014):有16~19层网络,使用了3*3的卷积滤波器和2*2的池化层。只是对网络层进行不断的堆叠,并没有太大的创新,增加深度缺失可 ...
分类:
其他好文 时间:
2019-10-28 21:18:55
阅读次数:
108
讲授卷积神经网络核心思想、卷积层、池化层、全连接层、网络的训练、反向传播算法、随机梯度下降法、AdaGrad算法、RMSProp算法、AdaDelta算法、Adam算法、迁移学习和fine tune等。 大纲: 卷积神经网络简介 视觉神经网络的核心思想 卷积神经网络的核心思想 卷积运算 卷积层的原理 ...
分类:
其他好文 时间:
2019-10-25 13:37:25
阅读次数:
104
为了加深对卷积神经网络底层原理的理解,本文通过使用numpy来搭建一个基础的包含卷积层、池化层、全连接层和Softmax层的卷积神经网络,并选择relu作为我们的激活函数,选择多分类交叉熵损失函数,最后使用了mnist数据集进行了训练和测试。 关于卷积网络的详细原理和实现可参考下列文章: "刘建平P ...
分类:
其他好文 时间:
2019-10-24 00:16:55
阅读次数:
83