【问题标题】:How to update batch weights in back propagation如何在反向传播中更新批次权重
【发布时间】:2018-01-08 15:47:43
【问题描述】:

梯度下降算法如何更新反向传播方法中的批量权重?

提前致谢...

【问题讨论】:

    标签: machine-learning conv-neural-network


    【解决方案1】:

    一旦你了解了算法,这真的很容易。

    New Weights = Old Weights - learning-rate x Partial derivatives of loss function w.r.t. parameters
    

    让我们考虑一个有两个输入、两个隐藏神经元、两个输出神经元的神经网络。

    首先,为您的网络引入权重和偏差。然后,计算隐藏层的总净输入,如下所示

    net_{h1} = w_1 * i_1 + w_2 * i_2 + b_1 * 1
    

    对所有其他隐藏层执行相同操作。

    接下来,我们现在可以使用平方误差函数计算每个输出神经元的误差,并将它们相加得到总误差。

    在下文中,您将必须计算总网络误差相对于先前权重的偏导数,以了解每个权重如何影响网络。我添加了一个视觉效果来帮助您理解。

    我强烈建议你通过这个beginner friendly introduction to back-propagation 来牢牢掌握这个概念。我希望我的初学者帖子可以帮助您开始机器学习之旅!

    【讨论】:

      猜你喜欢
      • 2015-06-11
      • 2016-04-14
      • 2020-08-04
      • 2017-12-10
      • 2020-08-24
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2018-08-30
      相关资源
      最近更新 更多