之前我们已经了解了Logistic Regression。Lost Function可以衡量您在单个训练示例中的表现,Cost Function可以衡量参数wb在整个训练集上的表现。

接下来我们会提到如何使用梯度下降算法来训练参数wb

成本函数J=1mi=1mL(y^(i),yi)
=1mi=1m(yilogy^i+(1yi)log(1y^i))
我们希望得到wb使得成本函数J尽量小。

所以这里是梯度下降的例证。
1.2.4 【Deep Learning翻译系列】Gradient Descent 梯度下降
该成本函数J是凸函数。所以它看起来像一个碗。这是我们使用这个特定成本函数J进行逻辑回归的一个重要原因。

我们现在要将wb初始化为某个初始值。对于对数几率回归,几乎所有初始化方法都有效,通常将值初始化为零。随机初始也有效,但人们通常不会这样进行对数几率回归。但是因为这个函数是凸的,无论你在哪里初始化,你都能够达到相同的点或大致相同的点。

所以梯度下降就是这样,我们将重复进行以下更新w:=wαJw.
其中α是学习率。

相关文章:

  • 2021-11-09
  • 2021-10-10
  • 2021-10-05
  • 2021-06-01
  • 2021-06-30
  • 2022-01-09
猜你喜欢
  • 2021-11-07
  • 2021-07-14
  • 2021-05-24
  • 2021-08-01
  • 2021-11-14
相关资源
相似解决方案