【发布时间】:2017-10-11 02:25:06
【问题描述】:
我第一次在 MNIST 数据集上使用 Tensorflow,我遇到了一个非常简单的错误,我忘记在将错误值传递给优化器之前取其平均值。
换句话说,而不是
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=y, labels=y_))
不小心用了
loss = tf.nn.softmax_cross_entropy_with_logits(logits=y, labels=y_)
但是,在训练网络时,不取误差值的平均值或总和不会引发任何错误。这让我想到:真的存在需要将多个损失值传递给优化器的情况吗?当我将一个大小不为 [1] 的张量传递给最小化()时发生了什么?
【问题讨论】:
标签: python tensorflow neural-network gradient-descent