【问题标题】:weights of layers in backpropagation algorithm反向传播算法中的层权重
【发布时间】:2013-11-25 15:08:35
【问题描述】:

我在互联网上搜索了很多,但无法得出结论,为什么我们在反向传播算法的每一层中都使用权重。我知道权重乘以前一层的输出以获得下一层的输入,但我不明白为什么我们需要这些权重?请帮忙 谢谢方舟

【问题讨论】:

    标签: algorithm backpropagation


    【解决方案1】:

    没有权重就没有学习。权重是在反向传播学习过程中调整的值。神经网络只不过是一个函数,权重参数化了这个函数的行为。

    为了更好地理解,首先看一下单层感知器,例如 ADALINE。

    【讨论】:

      猜你喜欢
      • 2016-04-14
      • 1970-01-01
      • 2020-08-24
      • 1970-01-01
      • 2012-03-14
      • 1970-01-01
      • 1970-01-01
      • 2017-07-12
      • 2013-01-22
      相关资源
      最近更新 更多