【发布时间】:2018-09-17 07:32:02
【问题描述】:
tf.train.get_global_step() 是否返回当前训练步的值?如果不是,那么 currentglobal_step 与当前训练步骤有何不同?
这是参考以下代码:
optimizer=lambda: tf.train.FtrlOptimizer(
learning_rate=tf.train.exponential_decay(
learning_rate=0.1,
global_step=tf.train.get_global_step(),
decay_steps=10000000,
decay_rate=0.96)))
tf.train.get_global_step() 是否会在每个训练步骤中增加 global_step 并相应地影响learning_rate?或者更具体地说,global_step 的值是否会与当前的训练步长值相同并相应地影响learning_rate?
【问题讨论】:
标签: python tensorflow machine-learning