首先,我们引入分类问题,其实分类问题和回归问题很相似,只是分类问题中我们要预测的y值是有限数量的离散值,而不是回归问题中的连续值。

为了说明,我们现在只讨论二分类问题,也就是说y只能取0和1两种值。

对于这种二分类问题,当然也可以用线性回归去学习,然后根据给的的x预测出y,只是当预测出的y大于1或者小于0的时候是没有意义的,因为y只能取0或者1.

为了解决这种问题,我们可以提出下面的假设逻辑回归之问题建模分析

逻辑回归之问题建模分析

其中

逻辑回归之问题建模分析

被称之为逻辑函数(logistic function or sigmoid function),g(z)的函数曲线如下图:

逻辑回归之问题建模分析

当z趋向正无穷时,g(z)趋向1,当z趋向负无穷时,g(z)趋向0.

因为这种特性,上面我们的假设逻辑回归之问题建模分析的值也就被限制在0和1之间。

这就等于给出了逻辑回归的模型,该如何选择参数θ呢?

从概率的角度出发,作出如下假设:

逻辑回归之问题建模分析

当然这个假设也可简写为:

逻辑回归之问题建模分析

假如每一样本都是互相独立的,就可以得出参数θ的似然函数:

逻辑回归之问题建模分析

自然得到对数似然函数:

逻辑回归之问题建模分析

现在就是要最大化这个对数似然函数,和线性回归类似,我们同样可以用梯度下降,关键还是对对数似然函数求导:

逻辑回归之问题建模分析

注意上面推导用到了逻辑函数g(z)的一个性质:逻辑回归之问题建模分析.

因此参数更新可以按照如下规则进行:

逻辑回归之问题建模分析

 

 

相关文章:

  • 2021-12-05
  • 2021-12-11
  • 2021-11-08
  • 2022-12-23
  • 2022-12-23
  • 2022-02-12
  • 2021-11-19
猜你喜欢
  • 2022-01-25
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-05-03
  • 2021-12-04
相关资源
相似解决方案