码迷,mamicode.com
首页 > 其他好文 > 详细

ReLu(Rectified Linear Units)激活函数

时间:2016-11-30 02:01:51      阅读:204      评论:0      收藏:0      [点我收藏+]

标签:解释   cti   logistic   线性   bsp   log   信号   line   高明   

 

 

传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。

从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效果。

从神经科学上来看,中央区酷似神经元的兴奋态,两侧区酷似神经元的抑制态,因而在神经网络学习方面,可以将重点特征推向中央区,将非重点特征推向两侧区。

无论是哪种解释,看起来都比早期的线性激活函数(y=x),阶跃激活函数(-1/1,0/1)高明了不少。

ReLu(Rectified Linear Units)激活函数

标签:解释   cti   logistic   线性   bsp   log   信号   line   高明   

原文地址:http://www.cnblogs.com/qw12/p/6115833.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!