标签:paste 应用 卷积 池化层 ali 输入 实现 线性 一个
卷积神经网络CNN最初是为了解决图像识别等问题设计的,当然现在的应用已经不限于图像和视频,也可以用于时间序列信号,比如音频信号、文本数据等。
在深度学习出现之前,必须借助SIFT、HoG等算法提取出有效而丰富的特征,再集合SVM等机器学习算法进行图像识别。
CNN作为一个深度学习架构被提出来最初的诉求是降低对图像数据预处理的要求,以及避免复杂的特征工程。CNN最大的特点是在于卷积的权值共享结构,可以大幅减少神经网络的参数量,方式过拟合的同时又降低了神经网络模型的复杂度。
卷积神经网络的历史
感受野 —> 神经认知机(S-cells/C-cells)
卷积神经网络可以利用空间结构关系减少需要学习的参数量,从而提高方向传播算法的训练效率。在卷积神经网络中,第一个卷积层直接接受图像像素的输入,每一个卷积操作只处理一小块图像,进行卷积变化后再传到后面的网络,每一层卷积都会提取数据中最有效的特征。这种方法可以提取到图像中最基本的特征,而后再进行组合和抽象形成更高阶的特征。
一般卷积神经网络由多个卷积层构成,每个卷积层中通常会进行如下几个操作。
一个卷积层中可以有多个不同的卷积核,而每一个卷积核都对应一个滤波后映射的新图像,同一个新图像中每一个像素都来自完全相同的卷积核,这就是卷积核的权值共享。我们为什么要共享卷积核的权值参数呢?答案很简单,降低模型复杂度,减轻过拟合并降低计算量。
每一个卷积核滤波得到的图像就是一类特征的映射,即一个Feature map。
参数量和隐含节点个数或者图片大小无关,只跟卷积核的大小有关,这就是所谓的权值共享。
总结一下就是,卷积神经网络的要点就是局部连接、权值共享、池化层中的降采样。
LeNet5是最早的深层卷积神经网络之一
LeNet5特性有如下几点:
LeNet5结构图如下所示:
TensorFlow实战-TensorFlow实现卷积神经网络CNN-第5章
标签:paste 应用 卷积 池化层 ali 输入 实现 线性 一个
原文地址:https://www.cnblogs.com/LearnFromNow/p/9349636.html