码迷,mamicode.com
首页 > 其他好文 > 详细

神经网络训练过程

时间:2017-07-26 00:09:59      阅读:269      评论:0      收藏:0      [点我收藏+]

标签:height   流程   font   logs   技术   jpg   9.png   ack   com   

 技术分享

Cost Function:

技术分享

 前向传播(Forward propagation)

技术分享

反向传播(Back propagation)

 对于反向传播算法最直观的表示就是对于每个节点都计算这样一项(误差项):

技术分享

技术分享

计算完每个节点的误差之后我们便可以得到损失函数对于所有参数的偏导数

技术分享

注:这里忽略了正则化项。(aj看成xj

直观表示:

技术分享

 

 

 算法流程:

 技术分享

Δ为所有样本的误差和矩阵。

 

 随机初始化参数

    对于所有的参数我们必须初始化它们的值,而且它们的初始值不能设置成一样,比如都设置成0或1。如果设置成一样那么所有的a,δ,偏导,所有更新后参数等都会相等。即所有神经元的功能都相等,造成了高度冗余。所以我们必须随机化初始参数。

例如:

 技术分享

表示初始化了一个10*11的参数矩阵,且每个参数都属于[-ε, ε]

 

神经网络训练过程

标签:height   流程   font   logs   技术   jpg   9.png   ack   com   

原文地址:http://www.cnblogs.com/J-K-Guo/p/7236985.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!