【发布时间】:2014-11-23 14:20:01
【问题描述】:
我目前对在执行 BackPropagation 算法进行分类时使用交叉熵误差感兴趣,我在输出层中使用 Softmax 激活函数。
据我所知,您可以使用 Cross Entropy 和 Softmax 将导数去掉,使其看起来像这样:
Error = targetOutput[i] - layerOutput[i]
这与以下的均方误差不同:
Error = Derivative(layerOutput[i]) * (targetOutput[i] - layerOutput[i])
那么,当您的输出层使用 Softmax 激活函数进行交叉熵分类时,您能否只删除导数项?例如,如果我要使用交叉熵误差(比如 TANH 激活函数)进行回归,我仍然需要保留导数项,对吗?
我无法找到一个明确的答案,我也没有尝试过计算这个问题(因为我生疏了)。
【问题讨论】:
标签: neural-network backpropagation entropy derivative softmax