上一篇得到了支持向量机的基本型:机器学习:支持向量机SVM对偶问题
这里称上式为主问题,对上式使用拉格朗日乘子法,得到该问题的拉格朗日函数:机器学习:支持向量机SVM对偶问题
其中a=(a1;a2;...;am),且a>=0,即a的每个分量都大于等于0(a指上式的阿尔法)。

可知上式中的第二项求和小于等于0。所以拉格朗日函数L<=f(x)=(1/2)*(||w||^2)。
令拉格朗日函数L对w,b的偏导数为0,可得:机器学习:支持向量机SVM对偶问题
因为拉格朗日函数L是凸函数,所以当L取最小值时,必有上式成立,将上式代入L即可得到L关于w,b的下界,记为:inf(L),即拉格朗日对偶函数:机器学习:支持向量机SVM对偶问题
显然有inf(L)<=L<=f(x)。
设主问题f(x)的最优值(即最小值)为p,则有inf(L)<=p,即我们找到了主问题最优值的下界。
现在就转变为我们要找一个好的下界,即转变为求解如下的对偶问题(最大的下界更接近下确界,所以更好,如-5,-3都是x平方的下界,-3比-5好,因为-3更精确,更接近下确界0):机器学习:支持向量机SVM对偶问题
并且满足:机器学习:支持向量机SVM对偶问题
上面的对偶问题max(inf(L)),记为d,则d<=p。当d=p时,称为“强对偶性”,此时一定存在a(阿尔法),w,b使得w,b是主问题的解,a(阿尔法)是对偶问题的解,所以对偶问题解决了,主问题也就解决了。一般情况下,强对偶性不成立,但若主问题是凸优化问题,并且至少存在一点w使得主问题的所有不等式约束都严格成立(指用<号或>号连结的不等式),则强对偶性成立。这里满足强对偶性。
所以解出阿尔法后,求出w,b即可得到划分超平面:机器学习:支持向量机SVM对偶问题
因为主问题中有不等式约束,所以上述过程还需满足KKT条件:机器学习:支持向量机SVM对偶问题
对偶问题的另一种推导可参见支持向量机SVM(二)


参考资料:
周志华《机器学习》
Boyd《凸优化》
参考博文:
相关博文:

相关文章:

  • 2021-10-31
  • 2021-06-24
  • 2021-10-04
  • 2022-01-14
  • 2021-10-03
  • 2021-12-02
  • 2021-11-17
  • 2022-01-06
猜你喜欢
  • 2021-07-13
  • 2021-06-12
  • 2021-07-26
  • 2021-12-10
  • 2022-01-10
  • 2021-11-04
  • 2021-09-23
相关资源
相似解决方案