码迷,mamicode.com
首页 > 其他好文 > 详细

ML_Scaling to Huge Datasets & Online Learning

时间:2016-08-15 12:46:22      阅读:116      评论:0      收藏:0      [点我收藏+]

标签:

比对梯度下降和随机梯度下降:

技术分享

梯度下降:每一次迭代耗时长,在大数据集上处理速度慢,对参数敏感性适中

随机梯度下降:每一次迭代耗时短,在大数据集上处理速度较快,但对参数非常敏感

技术分享

随机梯度下降能更快地达到较大的对数似然值,但噪声更大

技术分享技术分享技术分享

 

 

步长太小,收敛速度太慢;步长较大,震荡较大;步长异常大,不收敛

 

ML_Scaling to Huge Datasets & Online Learning

标签:

原文地址:http://www.cnblogs.com/sxbjdl/p/5772446.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!