码迷,mamicode.com
首页 > 其他好文 > 详细

Deep Learning系统实训之二:梯度下降原理

时间:2018-05-14 13:15:28      阅读:194      评论:0      收藏:0      [点我收藏+]

标签:bubuko   建议   等于   概念   width   图片   架构   nbsp   梯度   

基本概念理解:

一个epoch:当前所有数据都跑(迭代)了一遍;

        那么两个epoch,就是把所有数据跑了两遍,三个epoch就是把所有数据跑了三遍,以此类推。

batch_size:每次迭代多少个数据;(batch_size称作批处理, 它的作用可以理解为每次训练100个数据(在这里假设将其设置为100),找到最适合的优化方向,确保不偏离最优那个的方向)

epoch 和 batch_size 的关系一个epoch值除以batch_size=迭代次数。

例如:

有50000个数据,那么一个epoch值就是50000。

我们将batch_size的值设置为100。

那么迭代次数就是50000除以100,等于500次。即在batch_size =100的情况下,跑完一个epoch需要迭代500次。

 

神经网络是怎么如何参数更新的:

三步:前向传播、反向传播、参数更新。

技术分享图片

反向传播例1:

技术分享图片

反向传播流程:

技术分享图片

反向传播例2:

技术分享图片

技术分享图片

技术分享图片

神经网络基础架构(建议不要去看生物学上的解释,单纯数学上的理解或更可取):

技术分享图片

 

再看这个图:

技术分享图片

 

Deep Learning系统实训之二:梯度下降原理

标签:bubuko   建议   等于   概念   width   图片   架构   nbsp   梯度   

原文地址:https://www.cnblogs.com/ariel-dreamland/p/9035548.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!