【问题标题】:Backpropagation bug反向传播错误
【发布时间】:2020-09-02 13:02:13
【问题描述】:

我正在尝试从头开始实施反向传播。虽然我的成本在下降,但梯度检查会产生惊人的0.767399376130221。我一直试图找出问题所在,并设法将代码精简到这几行:

 def forward(self,X,y):

    z2 = self.params_l1.dot(X.T) 
    a2 = self.sigmoid(z2) 
    z3 = self.params_l2.dot(a2) 
    a3 = self.sigmoid(z3)
    loss = self.cross_entropy(a3,y)

    return a3,loss,z2,a2,z3

def backward(self,X,y):

    n_examples = len(X)

    yh,loss,Z2,A2,Z3 =  self.forward(X,y)

    delta3 = np.multiply(-(yh - y),self.dsigmoid(Z3)) 

    delta2 = (np.dot(self.params_l2.T,delta3))*self.dsigmoid(Z2) 

    de3 = np.dot(delta3,A2.T)
    de2 = np.dot(delta2,X)

    self.params_l2 =  self.params_l2 -  self.lr * (de3 /n_examples)
    self.params_l1 =  self.params_l1 - self.lr *  (de2 / n_examples)


    return de3/n_examples ,de2 /n_examples

这是一个简单的 (2,2,1) MLP。我使用交叉熵作为损失函数。我正在遵循反向传播的链式规则。 我怀疑问题可能出在我拿产品的顺序上,但我已经尝试了所有方法,但仍然没有运气。

【问题讨论】:

  • 请不要忘记在此类问题中添加适当的语言和/或库标签(添加了pythonnumpy)。

标签: python numpy machine-learning backpropagation


【解决方案1】:

我设法通过计算delta3 得到1.7250119005319425e-10 的差异@ 仅通过yh - y 并且没有进一步的乘法。现在我需要弄清楚为什么会这样。

【讨论】:

    猜你喜欢
    • 2018-08-03
    • 1970-01-01
    • 2023-04-05
    • 2017-05-13
    • 2023-03-20
    • 2016-05-09
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多