码迷,mamicode.com
首页 > 其他好文 > 详细

神经网络梯度下降的三种学习方式

时间:2016-04-05 07:08:35      阅读:193      评论:0      收藏:0      [点我收藏+]

标签:

 

# Batch gradient descent(批量梯度下降)
for i in range(nb_epochs):
    params_grad = evaluate_gradient(loss_function, data, params)
    params = params - learning_rate * params_grad


# Stochastic gradient descent(随机梯度下降)
for i in range(nb_epochs):
    np.random.shuffle(data)
    for example in data:
        params_grad = evaluate_gradient(loss_function, example, params)
        params = params - learning_rate * params_grad


# Mini-batch gradient descent(小批量梯度下降)
for i in range(nb_epochs):
    np.random.shuffle(data)
    for batch in get_batches(data, batch_size=50):
        params_grad = evaluate_gradient(loss_function, batch, params)
        params = params - learning_rate * params_grad

 

神经网络梯度下降的三种学习方式

标签:

原文地址:http://www.cnblogs.com/hhh5460/p/5353632.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!