【发布时间】:2020-10-16 17:01:21
【问题描述】:
我只是在构建一个深度神经网络,当全连接层没有激活函数(softmax)时,我发现我的网络收敛速度更快。但是当我添加这个 softmax 函数时,收敛性真的很差,甚至停止在非常高的损失中。顺便提一句。我使用交叉熵损失作为损失函数,使用 rmsprop 作为优化器。 Nerual network without last softmax activation
【问题讨论】:
-
请以文本格式而不是图像格式分享您的代码。
标签: pytorch conv-neural-network softmax cross-entropy