【发布时间】:2017-11-24 06:48:48
【问题描述】:
所有这些交叉熵损失之间有什么区别?
Keras 在谈论
- 二元交叉熵
- 分类交叉熵
- 稀疏分类交叉熵
虽然 TensorFlow 有
- 使用 logits 的 Softmax 交叉熵
- 带 logits 的稀疏 softmax 交叉熵
- 带 logits 的 Sigmoid 交叉熵
它们之间有什么区别和关系?它们的典型应用是什么?有什么数学背景?还有其他应该知道的交叉熵类型吗?有没有没有logits的交叉熵类型?
【问题讨论】:
-
看3个简单的拇指规则@stackoverflow.com/questions/47034888/…你应该能够快速导航任何框架的损失函数
标签: tensorflow machine-learning keras loss-function cross-entropy