CNN产生的起因是为了减少神经元数目并减少计算量
卷积神经网络的结构一般包含
- 输入层 input layer :
用于数据的输入- 卷积层 convolutional layer :
使用卷积核进行特征提取以及特征映射- 激励层 active layer :
由于卷积是线性运算,添加非线性映射- 池化层 pooling layer :
进行下采样对特征图稀疏处理,减少数据运算量- 全连接层 dense(fully connected) layer :
通常在CNN的尾部进行重新拟合,减少特征信息的损失输出层 output layer :
用于输出结果可能还有以下功能层
- 归一化层 batch normalization:在CNN中对特征的归一化
- 切分层:对某些(图片)数据的进行分区域的单独学习
- 融合层:对独立进行特征学习的分支进行融合
卷积层中的重要概念
- local receptive fields 感受视野
- shared weights 共享权值
- stride 步长 感受视野扫描平移的长度
- pad 边界扩充 当步长大于1时,为了扫描边界
特征,对边界设为0或其他值- Convolution kernel 卷积核
如输入矩阵为
| First Header | Second Header |
| ------------- | ------------- |
| Content Cell | Content Cell |
| Content Cell | Content Cell |
在CNN中,隐藏层中的神经元的感受视野比较小,
只能看到上一层的部分特征,上一层的其他特征可以通
过平移感受视野来得到同一层的其他神经元,由同
一层其他神经元来看