码迷,mamicode.com
首页 > 其他好文 > 详细

常见优化器

时间:2019-04-11 10:41:24      阅读:184      评论:0      收藏:0      [点我收藏+]

标签:info   log   none   desc   img   die   clear   order   选择   

  1. SGD
         梯度下降法根据每次更新参数时使用的样本数量分为Stochastic Gradient Descent(随机梯度下降法,SGD)、mini-batch Gradirnt Descent(小批量梯度下降法,mBGD)和Batch Gradient Descent(批量梯度下降法,BGD)三种。通常所说的SGD指的是小批量梯度下降法,这里也是。
         批量梯度下降法是梯度下降法最常用的形式,也就是在更新参数时使用所有的样本;随机梯度下降法与批量梯度下降法的原理类似,不过在求取梯度时没有使用所有的样本,而是仅仅选取一个样本来求梯度;小批量梯度下降法则是批量梯度下降法和随机梯度下降法的折衷,在计算梯度时选择部分样本进行计算,即样本数介于1与总数之间。
         对于小批量梯度下降法,其更新公式如下:
    技术图片




常见优化器

标签:info   log   none   desc   img   die   clear   order   选择   

原文地址:https://www.cnblogs.com/Lilu-1226/p/10687948.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!