码迷,mamicode.com
首页 > 其他好文 > 详细

调整学习率-torch.optim.lr_scheduler.MultiStepLR()方法

时间:2019-12-31 23:32:30      阅读:1476      评论:0      收藏:0      [点我收藏+]

标签:span   net   learning   pre   tor   mile   parameter   http   log   


optimizerG = optim.Adam(netG.parameters(), lr=opt.lr_g, betas=(opt.beta1, 0.999))
torch.optim.lr_scheduler.MultiStepLR(optimizer=optimizerG,milestones=[1600],gamma=opt.gamma)

torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)
milestones为一个数组,如 [50,70]. gamma为倍数。如果learning rate开始为0.01 ,则当epoch为50时变为0.001,epoch 为70 时变为0.0001。
当last_epoch=-1,设定为初始lr。

参考博客:

https://blog.csdn.net/qq_41872630/article/details/86749972

调整学习率-torch.optim.lr_scheduler.MultiStepLR()方法

标签:span   net   learning   pre   tor   mile   parameter   http   log   

原文地址:https://www.cnblogs.com/shuangcao/p/12127506.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!