【发布时间】:2021-03-11 13:32:16
【问题描述】:
我正在寻找 Pytorch 中的交叉熵损失函数,它类似于 Tensorflow 中的 CategoricalCrossEntropyLoss。
我的标签是热编码的,预测是 softmax 层的输出。例如(每个样本属于一个类):
targets = [0, 0, 1]
predictions = [0.1, 0.2, 0.7]
我想计算 softmax 值的(分类)交叉熵,不将预测的最大值作为标签,然后计算交叉熵。不幸的是,我没有找到合适的解决方案,因为 Pytorch 的 CrossEntropyLoss 不是我想要的,它的 BCELoss 也不是我所需要的(不是吗?)。
有谁知道在 Pytorch 中使用哪个损失函数或如何处理它? 非常感谢!
【问题讨论】:
-
“不将预测的最大值作为标签,然后计算交叉熵”,为什么不呢?
标签: python pytorch one-hot-encoding cross-entropy