【发布时间】:2018-08-30 02:43:38
【问题描述】:
最近做了一个实验,使用:tf.layers.batch_normalization(input, training=True)和using tf.layers.batch_normalization(input),两种情况都在训练期。
但是发生了一些奇怪的事情。如果我使用:tf.layers.batch_normalization(input, training=True),tf.summary 创建的tfevent file 大约是 400MB,但如果我使用tf.layers.batch_normalization(input),那个文件只有大约 20MB,我不明白这是为什么。
【问题讨论】:
标签: python tensorflow batch-processing normalization