码迷,mamicode.com
首页 > 其他好文 > 详细

一种并行随机梯度下降法

时间:2014-06-18 00:55:39      阅读:433      评论:0      收藏:0      [点我收藏+]

标签:随机梯度下降   sgd   downpour sgd   distbelief   deep learning   

      
     本文是读完 Jeffrey Dean, Greg S. Corrado 等人的文章 Large Scale Distributed Deep Networks (2012) 后的一则读书笔记,重点介绍在 Google 的软件框架 DistBelief 下设计的一种用来训练大规模深度神经网络的随机梯度下降法 — Downpour SGD,该方法通过分布式地部署多个模型副本和一个“参数服务器”,同时实现了模型并行和数据并行,且对机器失效问题具有很好的容错性。结合 Adagrad 自适应学习率使用,对非凸优化问题有很好的效果。


bubuko.com,布布扣


bubuko.com,布布扣


bubuko.com,布布扣


bubuko.com,布布扣


bubuko.com,布布扣bubuko.com,布布扣


bubuko.com,布布扣


作者: peghoty 

出处: http://blog.csdn.net/itplus/article/details/31831661

欢迎转载/分享, 但请务必声明文章出处.

一种并行随机梯度下降法,布布扣,bubuko.com

一种并行随机梯度下降法

标签:随机梯度下降   sgd   downpour sgd   distbelief   deep learning   

原文地址:http://blog.csdn.net/itplus/article/details/31831661

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!