【发布时间】:2019-03-22 02:57:19
【问题描述】:
我正在使用 tensorflow 训练我的多标签模型。损失使用tf.nn.sigmoid_cross_entropy_with_logits 计算。我可以像这样在没有reduce_sum 或reduce_mean 的情况下尽量减少损失吗:
...
#loss = tf.reduce_mean(tf.losses.sigmoid_cross_entropy(multi_class_labels=labels, logits=logits)) ## not do this
loss = tf.losses.sigmoid_cross_entropy(multi_class_labels=labels, logits=logits)
optimizer = tf.train.AdamOptimizer(learning_rate=0.1) # do this
train_op = optimizer.minimize(loss, global_step=tf.train.get_global_step())
...
【问题讨论】:
-
Loss 被定义为特定函数的总和或均值,因此您不能删除总和/均值并期望结果具有任何意义。
标签: tensorflow deep-learning multilabel-classification