【发布时间】:2021-03-19 09:27:10
【问题描述】:
我知道 PyTorch 的 LogSoftmax 函数基本上只是一种计算Log(Softmax(x)) 的数值更稳定的方法。 Softmax 可让您将线性层的输出转换为分类概率分布。
pytorch documentation 表示 CrossEntropyLoss 将 nn.LogSoftmax() 和 nn.NLLLoss() 组合在一个类中。
看着NLLLoss,我还是一头雾水……是不是有2个日志在用?我认为负面日志是事件的信息内容。 (如entropy)
多看几眼后,我认为NLLLoss 假设您实际上是在传递对数概率,而不仅仅是概率。它是否正确?如果是这样,那就有点奇怪了……
【问题讨论】:
标签: pytorch cross-entropy