标签:embed nbsp 方式 net 残差网络 使用 manual nload 参数
1.基于既保持神经网络结构的稀疏性,又充分利用密集矩阵的高计算性能,谷歌提出了一种“基础神经元”的Inception结构;
2.Inception-v1将cnn中常见的卷积,池化操作堆叠到一起(卷积,池化后的尺寸相同,通道增加,神经网络的宽度变宽),在3*3,5*5卷积操作前,3*3池化操作后添加1*1卷积,减少维度,修正了线性激活;
Inception-v2通过卷积分解(两个3*3卷积替换5*5卷积)保证感受野的同时减少了参数量,提出BatchNormalization方法,减小数据发散的可能性,预防梯度消失或梯度爆炸,提高网络收敛速度;
Inception-v3通过将较大二维卷积分解成两个较小一维卷积(如将7*7分解成1*7和7*1),减少参数并减轻了过拟合,同时还增加了神经网络非线性扩展模型的表达能力;
Inception-v4结合深度残差网络ReSet,可以加速训练。
3.Inception架构的主要思想是找出如何让已有的稠密组件接近覆盖卷积视觉网络中的最佳局部稀疏结构;GoogLeNet结构底层使用的是传统的卷积方式,较高层使用inception结构。
4.为了避免梯度消失,Inception结构在中间的两个位置加了两个softmax,整个结构一共有三个输出分类,最终的结构由三个softmax乘以权重相加得到。
标签:embed nbsp 方式 net 残差网络 使用 manual nload 参数
原文地址:https://www.cnblogs.com/xiaowa/p/13301245.html