【问题标题】:Tensorflow loss calculation for multiple positive classifications多个正分类的 TensorFlow 损失计算
【发布时间】:2018-07-06 10:02:07
【问题描述】:

我的标签是这样的

label = [0, 1, 0, 0, 1, 0]

表示类 1, 4 存在于匹配的样本输入中。

  1. 如何为这样的标签创建 one-hot 编码标签?
  2. 哪种损失函数更适合这种情况(sigmoid 交叉熵、softmax 交叉熵或稀疏 softmax 交叉熵)?

【问题讨论】:

  • 对于 one-hot 编码标签,您可以使用 sigmoid 交叉熵或 softmax 交叉熵。稀疏 softmax 交叉熵只允许索引标签。

标签: tensorflow machine-learning loss-function multiclass-classification


【解决方案1】:
  1. 没有充分的理由为此创建 one-hot 编码版本,如果您想保持输出标签大小完全相同,在您的情况下为 6,您可以t 做一个one-hot 编码的版本。

  2. multi-label classification 将被执行的地方,你不能(更恰当地不应该)使用softmax 作为激活。 Softmax 适用于只有一个输出可以是真值的情况。因此,在您的情况下,最好使用sigmoid cross-entropy

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2016-05-21
    • 2018-04-13
    • 1970-01-01
    • 2018-06-25
    • 1970-01-01
    • 2021-12-08
    • 1970-01-01
    • 2017-06-26
    相关资源
    最近更新 更多