【问题标题】:Directly update the optimizer learning rate直接更新优化器学习率
【发布时间】:2021-02-05 21:38:23
【问题描述】:

我有一个具体的学习率计划。它基于epoch,但与我所知道的一般可用的不同,包括StepLR

有什么东西可以相当于:

optimizer.set_lr(lr)

optimizer.set_param('lr,',lr)

然后我会简单地在每个 epoch 的末尾调用该方法(或者可能更频繁)

上下文:我正在使用adam 优化器:

    optimizer = torch.optim.Adam(model.parameters(), lr=LrMax, weight_decay=decay) # , betas=(args.beta1, args.beta2)

更新我找到了这条信息https://discuss.pytorch.org/t/change-learning-rate-in-pytorch/14653

for param_group in optimizer.param_groups:
        param_group['lr'] = lr

有没有办法确定正在使用的 adam 优化器正在使用新的学习率?

【问题讨论】:

    标签: pytorch learning-rate


    【解决方案1】:

    你可以这样做:

    for param_group in optimizer.param_groups:
        param_group['lr'] = lr
    

    【讨论】:

    • 找到与您提供答案相同的资源(更新问题)。我现在正在使用它进行培训。