【发布时间】:2018-02-08 11:41:15
【问题描述】:
我不熟悉深度学习,所以这可能是一个初学者问题。 据我了解,多层感知器中的 softmax 函数负责每个类的归一化和分布概率。 如果是这样,我们为什么不使用简单的归一化?
假设,我们得到一个向量x = (10 3 2 1)
应用softmax,输出为y = (0.9986 0.0009 0.0003 0.0001)。
应用简单的归一化(将每个元素除以sum(16))
输出将是y = (0.625 0.1875 0.125 0.166)。
似乎简单的归一化也可以分布概率。 那么,在输出层使用softmax函数有什么好处呢?
【问题讨论】:
标签: neural-network deep-learning softmax