逻辑回归是一种常用于二分类问题的线性分类算法,在二分类问题中样本只有0和1两种取值,也就是说样本应该属于伯努利分布。

它的原理是将一个线性的实数范围内的数值通过sigmoid函数映射到了0-1的范围内,使得其可以得出一个样本属于正样本的概率。

sigmoid函数的形式为:

理解逻辑回归(logistic regression),如下图

理解逻辑回归(logistic regression)

我们发现sigmoid函数是一个关于(0,0.5)对称,在大于0时逐渐趋近于1,在小于0时逐渐趋近于0的函数。

若我们把理解逻辑回归(logistic regression)带入sigmoid函数当中,就可以把一个线性模型成功映射到0~1的范围内,而得到属于正样本的概率。(这是因为sigmoid函数是伯努利分布的指数族分布,因此可以使用其代表正样本的概率)

理解逻辑回归(logistic regression)

通过观测的样本,我们可以得到每个样本预测正确的概率:

理解逻辑回归(logistic regression)

而如果我们每个样本预测正确的概率之积最大,那么我们的模型预测的效果也就越好,这就是极大似然函数:

理解逻辑回归(logistic regression)

我们对这个似然函数两边取对数:

理解逻辑回归(logistic regression)

通常对于损失函数来说,我们希望损失函数的值越小,代表模型的效果越好,所以这里我们把对数似然函数进行一个变化,就可以得到我们的损失函数:

理解逻辑回归(logistic regression)

这样我们就成功把一个分类问题转化为了一个参数优化问题,在这里我们可以使用梯度下降法来求损失函数的参数θ的最优解:

理解逻辑回归(logistic regression)

其中:

理解逻辑回归(logistic regression)

所以有:

理解逻辑回归(logistic regression)

所以梯度下降的迭代公式为:

理解逻辑回归(logistic regression)

这样我们就可以通过梯度下降法得到一组参数θ,以及对应的逻辑回归模型,从而对新的样本进行分类。

相关文章:

  • 2021-08-04
  • 2021-07-27
  • 2021-11-16
  • 2021-11-07
  • 2021-12-29
  • 2021-09-04
猜你喜欢
  • 2021-04-14
  • 2021-05-17
  • 2021-09-03
  • 2021-06-20
  • 2021-08-07
相关资源
相似解决方案