【发布时间】:2021-07-08 00:41:24
【问题描述】:
我想使用tf.keras.losses.BinaryCrossentropy 计算交叉熵损失。该文档有以下示例,并指定真实标签和预测标签的形状应为[batch_size]:
y_true = [[0., 1.], [0., 0.]]
y_pred = [[0.6, 0.4], [0.4, 0.6]]
bce = tf.keras.losses.BinaryCrossentropy()
bce(y_true, y_pred).numpy()
从例子中推断,每个样本的label应该被格式化为[属于Class 0的概率,属于Class 1的概率]。这是正确的吗?如果是,为什么y_true[1] 的概率加起来不等于 1?
【问题讨论】:
标签: python tensorflow loss-function cross-entropy