【发布时间】:2020-03-19 20:53:45
【问题描述】:
如何将学习率调度器与以下优化器一起使用?
optimizer = torch.optim.Adam(optim_params,betas=(args.momentum, args.beta), weight_decay=args.weight_decay)
我编写了以下调度程序:
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=100, gamma=0.9)
我不确定是否应该执行调度程序或优化程序。我应该按哪个顺序执行以下操作?
optimizer.zero_grad()
scheduler.step()
optimizer.step()
【问题讨论】:
标签: python machine-learning pytorch learning-rate