【发布时间】:2016-06-13 09:41:22
【问题描述】:
在训练期间,我想将最后 N 个 mini-batch 的平均损失写入SummaryWriter,作为平滑非常嘈杂的批损失的一种方式。在 python 中计算并打印它很容易,但我想将它添加到摘要中,以便我可以在 tensorboard 中看到它。这是我现在正在做的一个过于简化的示例。
losses = []
for i in range(10000):
_, loss = session.run([train_op, loss_op])
losses.append(loss)
if i % 100 == 0:
# How to produce a scalar_summary here?
print sum(losses)/len(losses)
losses = []
我知道我可以使用衰减为 1.0 的 ExponentialMovingAverage,但我仍然需要一些方法来每 N 个批次重置一次。真的,如果我所关心的只是可视化张量板中的损失,那么重置可能不是必需的,但我仍然很好奇如何出于其他原因跨批次进行聚合(例如计算测试数据集的总准确度太大批量运行)。
【问题讨论】:
标签: tensorflow