标签:term 技术分享 定义 不同的 就会 http white 它的 理解
本文学习笔记的部分内容參考zouxy09的博客,谢谢!http://blog.csdn.net/zouxy09/article/details/8775360
卷积假设改名为“加权平均积”,就会非常好理解了。卷积的离散形式就是经常使用的加权平均。而连续形式则可理解为对连续函数的加权平均。假如我们观測或计算出一组数据。但数据因为受噪音的污染并不光滑。我们希望对其进行人工处理。
那么。最简单的方法就是加权平均。实际上加权平均是两个序列在做离散卷积,当中一个序列是权重,还有一个序列是原数据。
试想若把序列换为函数,则就是我们通常卷积的定义。
这时可使用一个函数对另外一个函数做加权平均。
只是,一个扮演的是权重角色。还有一个则扮演被平均的角色。
数学上定义:设?(x),g(x)是实数集R上的两个可积函数,作积分
事实上对于一张图片来说。像素级特征是没有价值的。特征是具有结构性的时候,才干更好的反应这幅图像。
因此可通过卷积神经网络把底层特征表达一层层的抽象到高层特征表示。
如:像素级特征表示的图像。在第一层学习后得到梯度级图像表示,再上一层学习后得到目标部分级图像表示,再次学习后得到整个目标结构模型特征。
事实上卷积神经网络的本质是构建多层学习模型,来学习得到图像更有价值的特征,从而终于提升分类或预測的准确性。
卷积神经网络是人工神经网络的一种,它的最厉害的地方在于权值共享网络结构,降低了网络模型的复杂度。降低了权值数量。
长处是图像可直接作为网络的输入,避免了传统算法中复杂的特征提取和数据重建的过程。
CNN利用空间关系降低须要学习的參数数目。CNN中。图像的一小部分作为层级结构的最底层输入,信息再依次传输到不同的层,每层通过一个数字滤波器去获得观測数据的最显著特征。
CNN是一个多层神经网络,每层由多个二维平面组成,每一个平面由多个独立神经元组成。
如上图。输入层可直接使用原图像的像素表示作为输入,通过三个可训练的滤波器和可加偏置对原图像进行卷积,卷积后在C1层产生三个特征映射图(每一个特征映射图都可看为是对原图像的抽象),这是一个卷积的过程,称为卷积层。卷积层得到的特征映射图作为输入,将图中每组的四个像素进行求和,加权值。加偏置,再通过一个sigmoid函数得到三个S2层的特征映射图。这是一个下採样的过程。如此卷积层和下採样层交替,终于给出图像的向量表示。后可接一个分类器(如SVM或传统神经网络)得到输出。
标签:term 技术分享 定义 不同的 就会 http white 它的 理解
原文地址:http://www.cnblogs.com/slgkaifa/p/6959252.html