码迷,mamicode.com
首页 > 其他好文 > 详细

一个用 Cumulative Penalty 培训 L1 正规 Log-linear 型号随机梯度下降

时间:2015-09-30 19:35:31      阅读:237      评论:0      收藏:0      [点我收藏+]

标签:

  
       Log-Linear 模型(也叫做最大熵模型)是 NLP 领域中使用最为广泛的模型之中的一个。其训练常採用最大似然准则。且为防止过拟合,往往在目标函数中增加(能够产生稀疏性的) L1 正则。但对于这样的带 L1 正则的最大熵模型,直接採用标准的随机梯度下降法(SGD)会出现效率不高难以真正产生稀疏性等问题。

       本文为阅读作者 Yoshimasa Tsuruoka, Jun’chi Tsujii 和 Sophia Ananiadou 的论文 Stochastic Gradient Descent Training for L1-regularized Log-linear Models with Cumulative Penalty (2009)后整理的读书笔记,文中提出了一种基于累积惩处的 SGD 方法。能够克服上述提到的两个问题。


技术分享


技术分享


技术分享


技术分享技术分享技术分享技术分享技术分享

技术分享


作者: peghoty 

出处: http://blog.csdn.net/itplus/article/details/30049501

欢迎转载/分享, 但一定要注明文章来源.

版权声明:本文博主原创文章,博客,未经同意不得转载。

一个用 Cumulative Penalty 培训 L1 正规 Log-linear 型号随机梯度下降

标签:

原文地址:http://www.cnblogs.com/hrhguanli/p/4849823.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!