【发布时间】:2020-03-07 07:30:51
【问题描述】:
我最近正在研究关于神经网络的理论。我对梯度下降和激活函数在 ANN 中的作用有点困惑。
据我了解,激活函数用于将模型转换为非线性模型。这样就可以解决线性不可分的问题。而梯度下降是帮助模型学习的工具。
所以我的问题是:
如果我对模型使用 sigmoid 之类的激活函数,而不是使用梯度下降来改进模型,我使用经典的感知器学习规则:Wj = Wj + a*(yh(x)),其中 h(x) 是具有净输入的 sigmoid 函数。模型可以学习非线性可分问题吗?
如果我不在模型中包含非线性激活函数。只是简单的净输入:h(x) = w0 + w1*x1 + ... + wj*xj。并使用梯度体面来改进模型。模型可以学习非线性可分问题吗?
我真的很困惑这个问题,哪个是模型可以学习非线性可分问题的主要原因。
【问题讨论】:
-
回答第 2 点:如果你的模型是输入 x 的线性函数,那么它永远无法学习非线性函数。
标签: machine-learning neural-network artificial-intelligence gradient-descent activation-function