码迷,mamicode.com
首页 > 其他好文 > 详细

深度学习激活函数比较

时间:2017-09-14 16:56:50      阅读:255      评论:0      收藏:0      [点我收藏+]

标签:模型   src   round   设置   它的   数值   nbsp   col   激活   

一、Sigmoid函数

  1)表达式

    技术分享

 

  2)函数曲线

  技术分享

  3)函数缺点

      •  梯度饱和问题。先看一下反向传播计算过程:

技术分享

          反向求导:

技术分享

          而其中:

          技术分享

            

           所以,由上述反向传播公式可以看出,当神经元数值无线接近1或者0的时候,在反向传播计算过程中,梯度也几乎为0,就导致模型参数几乎不更新了,对模型的学习贡献也几乎为零。也称为参数弥散问题或者梯度弥散问题

          同时,如果初始权重设置过大,会造成一开始就梯度接近为0,就导致模型从一开始就不会学习的严重问题。

      •  函数不是关于原点中心对称的。       

     

二、tanh函数

  1)公式

技术分享

技术分享

 

  2)曲线

技术分享 

 

 

  

  tanh 函数同样存在饱和问题,但它的输出是零中心的,因此实际中 tanh 比 sigmoid 更受欢迎。

 

三、ReLU函数

 

深度学习激活函数比较

标签:模型   src   round   设置   它的   数值   nbsp   col   激活   

原文地址:http://www.cnblogs.com/gczr/p/7520723.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!