码迷,mamicode.com
首页 > 其他好文 > 详细

正则化系数

时间:2020-03-20 17:05:12      阅读:74      评论:0      收藏:0      [点我收藏+]

标签:区别   color   bsp   function   gre   nbsp   nal   max   重要   

正则化 --在原有损失函数的基础上加上一个正则化项

通常用到的有均方根误差rmse和平均绝对误差mae

通过限制参数过多或者过大,避免模型更加复杂,简单来说就是降低模型的泛化错误率,避免模型过拟合

L1与L2的区别

L1可以实现让参数矩阵稀疏, 且L1正则化的损失函数不不是连续可导的,

L2也称岭回归功效是解决过拟合问题。当模型过于复杂,就会容易出现过拟合

L1范数惩罚(参数稀疏性惩罚),所有参数的绝对值之和,对应Lasso回归;

原有的损失函数(loss function)后面加一个正则化项(regularizer)

 

L2范数惩罚(权重衰减惩罚),所有参数的平方和,对应岭回归

在Python中调用

from sklearn.linear_model import LogisticRegression as LR包中

LR(penalty="l1", solver="liblinear",C=0.5,max_iter=1000)

penalty默认情况下是l2,

当选择L2后模型还是过拟合又或者因为模型的特征过多,想通过转换成稀疏矩阵的方式可选L1

矩阵的稀疏性:通俗的解释是,剔除一些不是重要的特征从而减少时间与空间的复杂

 

正则化系数

标签:区别   color   bsp   function   gre   nbsp   nal   max   重要   

原文地址:https://www.cnblogs.com/jing-yan/p/12532596.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!