码迷,mamicode.com
首页 > Web开发 > 详细

AlexNet----ReLU

时间:2018-05-05 13:19:37      阅读:210      评论:0      收藏:0      [点我收藏+]

标签:net   使用   作用   com   训练   lex   缺点   图片   消失   

一、介绍

AlexNet中使用了ReLU代替sigmoid激活函数,发现使用 ReLU 得到的SGD的收敛速度会比 sigmoid/tanh 快很多

 

技术分享图片技术分享图片

 

二、作用

1.sigmoid与tanh有饱和区,ReLU在x>0时导数一直是1,有助于缓解梯度消失,从而加快训练速度

2.无论是正向传播还是反向传播,计算量显著小于sigmoid和tanh

 

三、缺点

   当x<0时,梯度是0,从而往下传播的梯度都是0.在学习率较大时,可能会有大量神经元“死掉”。解决方法是Leaky Relu,当x<0时,给一定的负梯度。

 

四、注意

    输出均值不是0,是sigmoid的缺点,因为sigmoid有饱和区。但ReLU输出均值不是0,不是缺点,因为ReLU没有饱和区。

 

AlexNet----ReLU

标签:net   使用   作用   com   训练   lex   缺点   图片   消失   

原文地址:https://www.cnblogs.com/mimandehuanxue/p/8994391.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!