【发布时间】:2018-01-15 18:51:03
【问题描述】:
我之前读过 sgd 的泛化效果更好,但 adam 在训练的早期阶段收敛速度很快。 所以,我想在一些步骤后改变我的优化器。但是像下面这样的代码引发了预处理错误。如果有人知道如何在训练期间更改优化器?
for i in range(config.train_steps):
_, l, s = sess.run([train_op, loss, summary])
if i % 100 == 0:
saver.save(sess, os.path.join(args.model_dir,
'model.ckpt'))
writer.add_summary(s, i)
print('loss: ', l)
if i == 1000:
train_op = tf.train.GradientDescentOptimizer(learning_rate)
coord.request_stop()
coord.join(threads)
【问题讨论】:
-
@Maxim 对不起,你是对的。为什么我之前能找到这个问题...
标签: tensorflow