码迷,mamicode.com
首页 > 其他好文 > 详细

大规模机器学习优化方法综述

时间:2016-06-27 17:10:08      阅读:226      评论:0      收藏:0      [点我收藏+]

标签:

 

本文对这篇论文的简单描述

Optimization Methods for Large-Scale Machine Learning
author:Leon Bottou Frank E. Curtisy Jorge Nocedalz

  4. Analyses of Stochastic Gradient Methods

不失一般性,将期望风险R(w)和经验风险Rn(w)的目标函数表示如下


技术分享

本节主要讨论SG算法的收敛性及最糟的迭代上界

技术分享

 

以上算法就称之为SG, g主要为三种形式

技术分享

4.1 两个基本引理

通常SG的收敛性证明,需要目标函数F的光滑性、

技术分享

根据这个猜想得出一个重要的不等式

技术分享

由算法4.1知道 w(k+1)与 \xi_k 相关  ,{\xi_1,\xi_2,...,}是随机变量,可以看成一个分布

技术分享

对不等式取期望就得到(4.4)  (note:w(k+1)与\xi_k相关)

 

大规模机器学习优化方法综述

标签:

原文地址:http://www.cnblogs.com/who-a/p/5620498.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!