4. 松弛向量与软间隔
前面讨论的情况都是样本分布都可以被超平面完美分割的情况,但是在现实任务中,经常会有难以完美划分的情况,就算正好完美划分了样本点,也很难判断这个结果是不是过拟合造成的。

(图来自https://blog.csdn.net/zouxy09/article/details/17291543)
上左图中如果我们要考虑点A,得到的超平面就是红线那样,上右图中若是要考虑在class2中的红点,得到的超平面就是蓝线那样,如此精确的划分每个点很容易导致模型过拟合,为了缓解这个问题,我们引入软间隔的概念,软间隔允许某些样本不满足约束:
yi(ωTxi+b)≥1(4.1)
于是我们修改了优化目标:
min.12∥ω∥2+C∑i=1ml0/1(yi(ωTxi+b)−1)(4.2)
其中C>0是一个常数,l0/1(z)是“0/1损失函数”
l0/1(z)={1,0,if z<0otherwise
当C无穷大时,式(4.2)后面的部分迫使所有样本均满足式(4.1)的约束条件,式(4.2)则等价于(1.2),也就是说C越大,拟合非线性的能力越强,同时过拟合的风险也越高。引入l0/1(z)的目的是,我们只希望那些不满足(4.1)约束条件的点被算入优化目标中,但是l0/1(z)非凸,非连续,导致这样的目标函数不容易求解,我们可以使用近似的曲线替代,常用的损失函数为hinge函数:
lhinge(z)=max(0,1−z)
若采用hinge损失函数,则式(4.2)变成了:
min.12∥ω∥2+C∑i=1mmax(0,1−yi(ωTxi+b))(4.3)
引入松弛变量ξi≥0后,原来的约束条件就变为:
{yi(ωTxi+b)≥1−ξiξi≥0(4.4)
同时式(4.3)也可以改写为
min.12∥ω∥2+C∑i=1mξi(4.5)
我们重新引入拉格朗日乘子αi≥0 i=1,2,...,m,可得:
L(ω,b,α,ξ,β)=12∥ω∥2+C∑i=1mξi+∑i=1mαi(1−ξi+yi(ωTφ(xi)+b))−∑i=1mβiξi
对ω,b,ξi分别求偏导,得:
⎧⎩⎨⎪⎪ω=∑mi=1αiyiφ(xi)0=∑mi=1αiyiC=αi+βi
将结果带入原式得对偶问题:
max.∑i=1mαi−12∑i=1,y=1mαiαjyiyjκ(xi,xj)s.t. ∑i=1mαiyi=0 0≤αi≤C(4.6)
和前面说的KKT条件类似,这个对偶问题同样需要满足以下KKT条件:
⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪αi≥0yif(xi)−1+ξi≥0αi(yif(xi)−1+ξi)=0ξi≥0βi≥0βiξi=0(4.7)
5. SMO算法
SMO(Sequential Minimal Optimization)被用来求解SVM问题,该算法的思想是先固定αi以外的参数,然后求αi上的极值,由于存在(4.6)中的约束,我们可以先固定2个变量αi和αj,然后利用约束条件∑mi=1αiyi=0可以用αi代表αj,然后更新αi和αj,再重新选择2个参数,直到收敛。
注意到只需选取的αi和αj中有一个不满足KKT(4.7)条件,目标函数(4.6)就会在迭代后变大,因此我们要根据KKT条件来选择要更新的αi和αj,下面我们分析一下如何选取:
- 当αi=0时,βi=C,则ξi=0,得yif(xi)≥1
- 当αi=C时,βi=0,则ξi≥0,且yif(xi)−1+ξi=0,得yif(xi)≤1
- 当0<αi<C时,0<βi<C,则ξi=0,且yif(xi)−1+ξi=0,得yif(xi)=1
我们在编程时只需要选择的αi对应的yi,xi违背上面的约束就可以让目标函数变大。
假如我们根据违背KKT条件选择了α1,α2,则:
y1α1+y2α2=NN=−∑i≠1,2myiαi(5.1)
因为yiyi=1,则有:
α1=Ny1−y1y2α2(5.2)
将αi和αj代入式(4.6),得:
W(α1,α2)=α1+α2−12α21y21κ11−12α22y22κ22−∑i=3mα1αiy1yiκ(1,i)−∑i=3mα2αiy2yiκ(2,i)+C(5.3)
C为一些常数的和
我们令v1=∑mi=3α1αiy1yiκ(1,i),v2=∑mi=3α2αiy2yiκ(2,i),则式(5.3)改为:
W(α1,α2)=α1+α2−12α21y21κ11−12α22y22κ22−α1y1v1−α2y2v2+C
代入式(5.2)得
W(α2)=−12y21(Ny1−y1y2α2)2κ1,1−12α22y22κ2,2−(Ny1−y1y2α2)α2y1y2κ1,2−(Ny1−y1y2α2)y1v1−α2y2v2+α1+α2+C=−12(N−y2α2)2κ1,2−12α22κ1,2−(y2Nα2−α22)κ1,2−(N−y2α2)v1−α2y2v2+Ny1−y1y2α2+α2+C(5.4)
对(5.4)求导得0:
∂W(α2)∂α2=Ny2κ1,1−α2κ1,1−α2k2,2−y2Nκ1,2+2α2κ1,2+y2v1−y2v2−y1y2+1=−(κ1,1+κ2,2−2κ1,2)α2+κ1,1Ny2−κ1,2Ny2+v1y2−v2y2−y1y2+1=0(5.5)
由于f(x)=∑mi=1αiyiκ(xi,x)+b,则有:
v1=∑i=3mαiyiκi,1=f(x1)−αold1y1κ1,1−αold2y2κ1,2−bv2=f(x2)−αold1y1κ1,2−αold2y2κ2,2−b
又因为αold1=(N−αold2y2)y1,则:
v1−v2=f(x1)−f(x2)−κ1,1N+κ1,2N+(κ1,1+κ2,2−2κ1,2)αold2y2
代入(5.5):
∂W(α2)∂α2=−(κ1,1+κ2,2−2κ1,2)αnew2+(κ1,1+κ2,2−2κ1,2)αold2+y2(y2−y1+f(x1)−f(x2))(5.6)
令η=κ1,1+κ2,2−2κ1,2,E=f(x)−y,则:
∂W(α2)∂α2=−ηαnew2+ηαold2+y2(E2−E1)=0
αnew2=αold2+y2(E1−E2)η(5.7)
这样我们就获得了新的α2值,但是不要忘记,α是存在约束的:0≤α≤C

(图来自https://blog.csdn.net/u011734144/article/details/81233553)
当y1≠y2时α2的上下界为:
- 下界:L=max(0,αold2−αold1)
- 上界:H=min(C,C+αold2−αold1)
当y1=y2时α2的上下界为:
- 下界:L=max(0,αold1+αold2−C)
- 上界:H=max(C,αold1+αold2)
这样我们就能获得约束后的αnew2
αnew/constraint2=⎧⎩⎨⎪⎪Hαnew2Lαnew2>HL≤αnew2≤Hαnew2<L
然后我们就可以根据αold1y1+αold2y2=αnew1y1+αnew2y2计算αnew1了:
αnew1=alphaold1+y1y2(alphaold2−alphanew2)
现在我们获取了新的αnew1,αnew2,那么就可以更新b了,而我们只能根据yi(ωTxi+b)=1来求b,这个等式成立的条件为xi是支持向量,即0<αi<C,将αnew1代入上面的等式,两边同时乘以y1,有:
∑i=1mαiyiκi,1+b=y1
则b的值为:
bnew1=y1−∑i=3mαiyiκi,1−αnew1y1κ1,1−αnew2y2κ1,2
其中等式后面前两部分可以表示为:
y1−∑i=3mαiyiκi,1=−E1+αold1y1κ1,1+αold2y2κ1,2+bold
那么最终bnew1可以表示为:
bnew1=bold−E1−y1κ1,1(αnew1−αold1)−y2κ1,2(αnew2−αold2)
同理bnew2可以表示为
bnew2=bold−E2−y1κ1,2(αnew1−αold1)−y2κ2,2(αnew2−αold2)
当b1和b2都有效时他们是相等的,即bnew1=bnew2=bnew,当αnew1,2=0或C时SMO选择他们的中点作为新的阈值:
bnew=bnew1+bnew22
传送门
支持向量机(SVM)和python实现(一)https://blog.csdn.net/z962013489/article/details/82499063
支持向量机(SVM)和python实现(三)https://blog.csdn.net/z962013489/article/details/82622036