【发布时间】:2021-12-11 22:23:38
【问题描述】:
我有一个有效的反向传播算法,当迭代 100,000 次对相同的奇异输入,例如 [1, 0] -> 1,正确地最小化错误。
但是当有多个输入时,我不确定如何扩展它来训练神经网络。
假设我们希望训练 XOR 函数,具有四种可能的输入和输出状态:
[ 0, 0 ] -> 0
[ 0, 1 ] -> 1
[ 1, 0 ] -> 1
[ 1, 1 ] -> 0
我尝试在每个输入输出测试数据之后调用反向传播算法。 即使经过大量迭代,网络也根本不会以这种方式学习。
我是否应该在调用反向传播之前计算整个训练集(即上述 4 种情况)的累积误差?
在本例中,如何存储和使用整个训练集的累积误差?
谢谢。
【问题讨论】:
标签: python tensorflow machine-learning deep-learning neural-network