【问题标题】:High error rate in multi-layer feedforward neurolab network多层前馈神经实验室网络中的高错误率
【发布时间】:2024-01-20 02:32:01
【问题描述】:

为什么我的网络向我显示一个高错误?
我需要遵守这些规则 -

multi-layer feedforward (2 inputs, 1 output);

第一个输入有 262144 个值(从 0 到 256)和 第二个 262144(从 0 到 1024)。

我只使用了一个隐藏层。我的错误是这样的:

Epoch: 1; Error: 2816810148.1; 
Epoch: 2; Error: 2814260288.59; 
Epoch: 3; Error: 2813602739.7; 
Epoch: 4; Error: 2813385229.99; 
Epoch: 5; Error: 2813308095.39;

【问题讨论】:

  • 使用正确的格式

标签: python-2.7 neural-network feed-forward multi-layer


【解决方案1】:

您应该规范化第一列和第二列的输入。然后去规范化你的输出。还可以考虑将第二列缩放到更接近第一列的值。它会给你更好的错误表面。

【讨论】:

    【解决方案2】:

    您的网络似乎完全按照预期工作。在每个时代,错误都下降了。网络用一个随机的“猜测”初始化,然后从那里移动——它没有预见到它必须生成的答案。有 250K+ 输入值进入 1000 秒,不难想象您的错误会如此之高(您还没有说明您的错误指标是什么)。这是很多数据,需要很多 epoch(最少 1000 秒)才能得到有用的东西。在 epoch 1 和 2 之间,你的错误,无论是什么单位,已经下降了 250 万点。我会说这是一些改进。你有没有让它运行几个小时,看看它是否能够在合理的时间内解决这个问题?

    【讨论】:

    • 是的,确实应该运行 2000 个 epoch,但在 16-20 个 epoch,错误停止减少。输出有 262144 个值(从 0 到 256),我的错误目标是“0.0001”。