码迷,mamicode.com
首页 > 其他好文 > 详细

图像卷积动图

时间:2019-11-10 19:08:28      阅读:103      评论:0      收藏:0      [点我收藏+]

标签:size   多次   sof   oid   导数   梯度   details   csdn   最简   

来源:https://blog.csdn.net/sinat_32043495/article/details/78841553

  • 全连接层 / FC layer

两层之间所有神经元都有权重连接
通常全连接层在卷积神经网络尾部

  • 激励层(ReLU)把卷积层输出结果做非线性映射
     Sigmoid
     Tanh(双曲正切)
     ReLU
     Leaky ReLU
     ELU
     Maxout
    梯度消失:这本质上是由于激活函数的选择导致的, 最简单的sigmoid函数为例,在函数的两端梯度求导结果非常小(饱和区),导致后向传播过程中由于多次用到激活函数的导数值使得整体的乘积梯度结果变得越来越小,也就出现了梯度消失的现象。
    梯度爆炸:同理,出现在激活函数处在激活区,而且权重W过大的情况下。但是梯度爆炸不如梯度消失出现的机会多。

 

图像卷积动图

标签:size   多次   sof   oid   导数   梯度   details   csdn   最简   

原文地址:https://www.cnblogs.com/yibeimingyue/p/11831225.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!