码迷,mamicode.com
首页 > 其他好文 > 详细

梯度下降VS随机梯度下降

时间:2014-10-15 10:53:00      阅读:180      评论:0      收藏:0      [点我收藏+]

标签:blog   http   使用   ar   sp   log   html   amp   ef   

样本个数m,x为n维向量。
h_theta(x) = theta^t * x
梯度下降需要把m个样本全部带入计算,迭代一次计算量为m*n^2

bubuko.com,布布扣

随机梯度下降每次只使用一个样本,迭代一次计算量为n^2,当m很大的时候,随机梯度下降迭代一次的速度要远高于梯度下降

bubuko.com,布布扣

梯度下降VS随机梯度下降

标签:blog   http   使用   ar   sp   log   html   amp   ef   

原文地址:http://www.cnblogs.com/alexanderkun/p/4025584.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!