一、把 soft margin svm 看做 L2 Regression 模型

  先来一张图回顾一下之前都学了些什么:

  Kernel Logestic Regression

  之前我们是通过拉格朗日乘子法来进行soft Margin Svm的转化问题,现在换一个思路:

  Kernel Logestic Regression

  好了,观察我们得到的这个没有条件的最小化问题:

  Kernel Logestic Regression

  这似乎和L2正则比较相似:

  Kernel Logestic Regression

  所以,可以把SVM看为一个正则化模型:

  Kernel Logestic Regression

二、 SVM 与 Logestic Regression 对比

  01损失 Logestic Regression损失, svm损失对比:

  Kernel Logestic Regression

  所以得到SVM损失近似于Logestic Regression损失。

三、SVM for soft Binary Classification

  Kernel Logestic Regression

  上面两个思路并没有利用到Logestic Regression的优点,怎么利用呢?

  Kernel Logestic Regression

四、Kernel Logestic Regression

  未完待续。还不是很理解。

 

 

  

  

 

相关文章:

  • 2021-07-22
  • 2021-04-14
  • 2021-06-19
  • 2021-04-22
  • 2021-06-11
  • 2021-12-02
  • 2021-06-15
  • 2022-12-23
猜你喜欢
  • 2021-07-12
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-12-31
  • 2022-12-23
相关资源
相似解决方案