【发布时间】:2016-10-31 04:07:46
【问题描述】:
我试图理解“反向传播”,因为它用于使用梯度下降优化的神经网络。通读文献似乎可以做一些事情。
- 使用随机权重开始并获取错误值
- 使用这些权重对损失函数执行梯度下降以获得新的权重。
- 使用这些新权重更新权重,直到损失函数最小化。
上述步骤似乎是解决线性模型(例如回归)的确切过程? Andrew Ng 在 Coursera for Machine Learning 上的优秀课程正是针对线性回归所做的。
所以,我试图了解 BackPropagation 是否在损失函数上做的不仅仅是梯度下降。如果没有,为什么它只在神经网络的情况下被引用,为什么不用于 GLM(广义线性模型) .他们似乎都在做同样的事情——我可能会错过什么?
【问题讨论】:
标签: machine-learning neural-network linear-regression backpropagation gradient-descent