码迷,mamicode.com
首页 > 其他好文 > 详细

mini_batch GD

时间:2017-07-30 20:05:09      阅读:159      评论:0      收藏:0      [点我收藏+]

标签:训练   size   caffe   learn   ural   更新   一个   需要   die   

工作过程:训练总样本个数是固定的,batch_size大小也是固定的,但组成一个mini_batch的样本可以从总样本中随机选择。将mini_batch中每个样本都经过前向传播和反向传播,求出每个样本在每一层每个神经元关于w和b的梯度。注意:同一个mini_batch中所有样本经过网络时,网络的参数是相同的(因为每次梯度更新是经过一个mini_batch后才更新的,不是一个样本就更新)。然后对于每一层每个神经元,把mini_batch中所有样本关于这个神经元的w和b梯度求和取平均就是这个神经元最终需要更新的梯度。neural networks and deep learning的43页有这个的公式。

 

batch GD:整个样本做一个mini-batch

SGD:一个样本做一个mini-batch

mini-batch:k个样本做一个mini-batch

online GD

他们是都基于梯度下降。

现在的SGD一般都指mini-batch gradient descent。caffe里面的SGD指的也是mini-batch GD。

mini_batch GD

标签:训练   size   caffe   learn   ural   更新   一个   需要   die   

原文地址:http://www.cnblogs.com/ymjyqsx/p/7260047.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!