【发布时间】:2014-06-28 09:20:29
【问题描述】:
我正在修改用于训练神经网络的代码,该神经网络进行在线训练以适用于小批量。权重 (de/dw) 的小批量梯度是否只是小批量中样本梯度的总和?或者,由于 sigmoid 输出函数,它是一些非线性函数吗?或者,它是总和,但除以某个数字使其更小?
澄清:最好把这个问题具体提出来,问问full-batch gradient和online gradient之间的关系。因此,请参阅下一段:
我正在使用具有 sigmoid 激活函数的神经元对二维空间中的点进行分类。架构是 2 x 10 x 10 x 1。有 2 个输出类:一些点是 1,另一些是 0。误差是(目标 - 输出)平方的一半。我的问题是,整个批次梯度是否等于每个样本的梯度之和(在批次中保持权重不变)?
【问题讨论】:
标签: machine-learning neural-network backpropagation gradient-descent