【发布时间】:2017-07-25 16:31:52
【问题描述】:
我在 tensorflow 中创建了一个神经网络。网络是:
5 input variables a, b, c, d, e
y = sin(a)+ b + exp(c) - d*d + tanh(e)
50 neuron layer1, relu
20 neuron layer2, relu
10 neuron layer3, relu
1 neuron output layer
如果输入变量在小范围内,例如 -1 到 1 或 -5 到 5,则 nn 很容易收敛(成本约为 0.0001)。但如果我增加范围,它不会收敛。同一网络收敛于小输入范围,不收敛于大范围。为什么会这样?我如何训练大范围,例如; -100 到 100 等。
【问题讨论】:
-
你能发布你的整个代码吗?