【发布时间】:2022-04-22 08:35:32
【问题描述】:
我在一些 Facebook 研究人员那里遇到了这个paper,他们发现在训练期间使用 softmax 和 CE 损失函数可以改善 sigmoid + BCE 的结果。他们通过更改 one-hot 标签向量来做到这一点,使得每个“1”除以给定图像的标签数量(例如,从 [0, 1, 1, 0] 到 [0, 0.5, 0.5, 0] )。
但是,他们没有提到如何在推理阶段使用它,因为选择正确标签所需的阈值尚不清楚。
有谁知道这是怎么回事?
【问题讨论】:
-
不是编程问题,因此这里可以说是题外话;请参阅
machine-learningtag info 中的介绍和注意。
标签: machine-learning conv-neural-network loss-function multilabel-classification