标签:神经网络 img 网络层 nbsp log http sdn 网络 技术分享
随着神经网络层数的增加,会出现梯度消失或者梯度爆炸的问题,下面细说下问什么会出现:
起初的学习率固定。
下面来看几组通过增加隐藏层层数后的学习率变化图:
关于梯度消失,梯度爆炸的问题
原文地址:http://www.cnblogs.com/DjangoBlog/p/7699559.html