标签:ima alt 使用 nbsp 比较 归一化 技术 batch .com
这个算法主要是解决了每一层中的正则化问题
其实我觉得这东西很鸡肋,因为我输入已经归一化了
然后初始的w,b也很小
每一层的输出肯定也很小
使用Batch Norm反而会加大训练时间,弱化神经网络中参数的作用
z(i)是这一层神经网络中第i个神经元,经过激活函数的输出
为了是下一层的输入比较相近,我们就需要使用Batch Norm
Batch Norm 对神经网络中的每一层进行正则化(未完成)
标签:ima alt 使用 nbsp 比较 归一化 技术 batch .com
原文地址:https://www.cnblogs.com/shensobaolibin/p/8955701.html