码迷,mamicode.com
首页 > 其他好文 > 详细

深度之眼PyTorch训练营第二期---14、正则化

时间:2019-11-21 23:19:49      阅读:224      评论:0      收藏:0      [点我收藏+]

标签:oba   nbsp   训练   实现   rop   表达   变化   height   inf   

一、正则化与偏差-方差分解

Regularization:减少方差的策略

误差可分解为:偏差,方差与噪声之和,即误差 = 偏差 + 方差 + 噪声之和

偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力

方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响

噪声:表达了再当前任务上任何学习算法所能达到的期望泛化误差的下界

技术图片

 

 

技术图片

 

 

二、pytorch中的L2正则化---weight decay

L2 Regularization = weight decay(权值衰减)

技术图片

 

 

三、Dropout概念

Dropout随机失活

随机:dropout probability

失活:weight = 0

数据尺度变化:测试时,所有权重乘以1 - drop_prob

drop_prob = 0.3 1 - drop_prob = 0.7

nn.Dropout

功能:Dropout层

参数:

p:被舍弃的概率,失活概率

实现细节:训练时权重均除以1-p

深度之眼PyTorch训练营第二期---14、正则化

标签:oba   nbsp   训练   实现   rop   表达   变化   height   inf   

原文地址:https://www.cnblogs.com/cola-1998/p/11908761.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!