【发布时间】:2018-10-29 02:33:23
【问题描述】:
使用softmax 输出层为我的生成神经网络进行训练总体上比使用relu 得到更好的结果,但relu 给了我所需的稀疏性(以像素为单位的零)。
Softmax 还有助于获得标准化输出(即 sum =1.)。
我想做:
outputs = Dense(200, activation='softmax', activity_regularizer=l1(1e-5))(x)
outputs = Activation('relu')(outputs) # to get real zeros
outputs = Activation('softmax')(outputs) # still real zeros, normalized output
但是通过应用连续的 softmax,我会得到极端的输出。有没有我可以使用的层,它只是将输出标准化为 1 (output_i/sum(output)) 而不是 softmax?
【问题讨论】:
标签: tensorflow neural-network keras