标签:函数 影响 article 使用 tle art preview target 技术
http://blog.csdn.net/whiup/article/details/52276110
sigmoid将一个实数输入映射到[0,1]范围内,如下图(左)所示。使用sigmoid作为激活函数存在以下几个问题:
因为上面两个问题的存在,导致参数收敛速度很慢,严重影响了训练的效率。因此在设计神经网络时,很少采用sigmoid激活函数。
tanh函数将一个实数输入映射到[-1,1]范围内,如上图(右)所示。当输入为0时,tanh函数输出为0,符合我们对激活函数的要求。然而,tanh函数也存在梯度饱和问题,导致训练效率低下。
Relu激活函数(The Rectified Linear Unit)表达式为:f(x)=max(0,x)。如下图(左)所示:
相比sigmoid和tanh函数,Relu激活函数的优点在于:
因此,Relu激活函数可以极大地加快收敛速度,相比tanh函数,收敛速度可以加快6倍(如上图(右)所示)。
标签:函数 影响 article 使用 tle art preview target 技术
原文地址:http://www.cnblogs.com/zyber/p/6820143.html