码迷,mamicode.com
首页 > 其他好文 > 详细

神经网络优化(二) - 正则化

时间:2018-11-03 20:21:45      阅读:126      评论:0      收藏:0      [点我收藏+]

标签:width   公式   个数   基本   基于   数据   class   常用   方式   

---恢复内容开始---

在机器学习中,有时候我们基于一个数据集训练的模型对该模型的正确率非常高,而该模型对没有见过的数据集很难做出正确的响应;那么这个模型就存在过拟合现象。

为了缓解或避免过拟合现象,我们通常用的方法是采用正则化方法(Regularization)。

1 正则化基本理解

1.1 正则化公式的引入

 正则化在损失函数中引入模型复杂度指标,利用给W加权值,弱化了训练数据的噪声(注:一般不正则化 b,仅正则化 w

 

技术分享图片

1.2 loss(w)函数的两种表述方式

# 表达方式1
loss(w) = tf.contrib.l1_regularizer(regularizer)(w)
# 表达方式2
loss(w) = tf.contrib.l2_regularizer(regularizer)(w)

其对应的数学表达式为

技术分享图片

 将正则化计算好的 w 添加到 losses 中

 

 

技术分享图片

 

 

 

 

 

 

---恢复内容结束---

神经网络优化(二) - 正则化

标签:width   公式   个数   基本   基于   数据   class   常用   方式   

原文地址:https://www.cnblogs.com/gengyi/p/9901749.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!