机器学习——SVM(4 Soft-Margin SVM)

Soft-Margin 的含义

所谓的Hard-Margin,就是指所有的资料都要完全分开,即separable,这是SVM产生过拟合的原因之一(还有一个原因就是过于复杂的转换 Φ\Phi)。
所以引入Soft-Margin, 即不必让所有的资料都完全分开,让SVM容许一部分的错误分类点的存在,从而在一定程度上减少过拟合,即要在large margin 和错误分类点容忍度(noise tolerance)之间做一个取舍,以一个参数来衡量。

选择什么参数来衡量? 以下由两种方式:
第一种方式:衡量错误分类点的个数
minb,w12wTw+Cn=1N[[ynsign(wTzn+b)]]s.t.      yn(wTzn+b)1  for  correct  n          yn(wTzn+b)  for  incorrect  n\begin{array}{l} \mathop {\min }\limits_{b,w} \frac{1}{2}{w^T}w + C \cdot \sum\limits_{n = 1}^N {\left[\kern-0.15em\left[ {{y_n} \ne sign({w^T}{z_n} + b)} \right]\kern-0.15em\right]} \\ \\ s.t.\;\;\;{y_n}({w^T}{z_n} + b) \ge 1{\kern 1pt} {\kern 1pt} \;for\;correct\;n\\ \\ \;\;\;\;\;{y_n}({w^T}{z_n} + b) \ge - \infty {\kern 1pt} \;for\;incorrect\;n \end{array}

C的含义trade-off of large margin & noise tolerance

对于这种方式有两个不足之处,

  • [[]]\left[\kern-0.15em\left[ {} \right]\kern-0.15em\right]是非线性函数,无法使用QP来求解。
  • 无法区分noise点犯错误程度的大小。

第二种方式:衡量错误分类点的犯错误程度
机器学习——SVM(4 Soft-Margin SVM)

minb,w,ξ12wTw+Cn=1Nξns.t.      yn(wTzn+b)1ξn            ξn0          \begin{array}{l} \mathop {\min }\limits_{b,w,\xi } \frac{1}{2}{w^T}w + C \cdot \sum\limits_{n = 1}^N {{\xi _n}} \\ \\ s.t.\;\;\;{y_n}({w^T}{z_n} + b) \ge 1 - {\kern 1pt} {\kern 1pt} {\xi _n}\;\\ \\ \;\;\;\;\;{\xi _n} \ge 0\\ \\ \;\;\;\;\; \end{array}

C的含义:trade-off of large margin & margin violation

该问题可以用QP来解,即有d~+1+N\tilde d + 1 + N个变量,2N个约束。

综上,一般采用第二种方式。

对偶形式的Soft-Margin SVM

构造拉格朗日方程如下,
L(w,b,ξ,α,β)=12wTw+Cn=1Nξn+n=1Nβn(ξn)                            +n=1Nαn(1ξnyn(wTzn+b))\begin{array}{l} L(w,b,\xi ,\alpha ,\beta ) = \frac{1}{2}{w^T}w + C \cdot \sum\limits_{n = 1}^N {{\xi _n}} + \sum\limits_{n = 1}^N {{\beta _n}( - {\xi _n})} \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\; + \sum\limits_{n = 1}^N {{\alpha _n}(1 - {\xi _n} - {y_n}({w^{\rm{T}}}{z_n} + b))} \end{array}
所对应的dual形式描述如下,
maxαn0,βn0(minb,w,ξ    12wTw+Cn=1Nξn+n=1Nβn(ξn)                            +n=1Nαn(1ξnyn(wTzn+b)))\begin{array}{l} \mathop {\max }\limits_{{\alpha _n} \ge 0,{\beta _n} \ge 0} (\mathop {\min }\limits_{b,w,\xi } \;\;\frac{1}{2}{w^T}w + C \cdot \sum\limits_{n = 1}^N {{\xi _n}} + \sum\limits_{n = 1}^N {{\beta _n}( - {\xi _n})} \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\; + \sum\limits_{n = 1}^N {{\alpha _n}(1 - {\xi _n} - {y_n}({w^{\rm{T}}}{z_n} + b))} ) \end{array}

下面是一系列的求解,

Lξn=0=Cαnβnβn=Cαn0αnCLb=0=n=1NαnynLwi=0=wn=1Nαnynznw=n=1Nαnynzn\begin{array}{l} \frac{{\partial L}}{{\partial {\xi _n}}} = 0 = C - {\alpha _n} - {\beta _n} \Rightarrow \begin{array}{} {{\beta _n} = C - {\alpha _n}}\\ {0 \le {\alpha _n} \le C} \end{array}\\ \frac{{\partial L}}{{\partial b}} = 0 = \sum\limits_{n = 1}^N {{\alpha _n}{y_n}} \\ \frac{{\partial L}}{{\partial {w_i}}} = 0 = w - \sum\limits_{n = 1}^N {{\alpha _n}{y_n}{z_n}} \Rightarrow w = \sum\limits_{n = 1}^N {{\alpha _n}{y_n}{z_n}} \end{array}

标准的Soft-Margin SVM Dual形式为,

standardsoftmarginSVMdualminα12n=1Nm=1NαnαmynymznTzmn=1Nαns.t.n=1Nynαn=0;0αnC,forn=1,2, ,Nimplicity    w=n=1Nαnynzn                    βn=Cαn\begin{array}{l} {\rm{standard soft - margin SVM dual}}\\ \mathop {\min }\limits_\alpha {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \frac{1}{2}\sum\limits_{n = 1}^N {\sum\limits_{m = 1}^N {{\alpha _n}} } {\alpha _m}{y_n}{y_m}z_n^T{z_m} - \sum\limits_{n = 1}^N {{\alpha _n}} \\ s.t.{\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \sum\limits_{n = 1}^N {{y_n}} {\alpha _n} = 0;\\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} 0 \le {\alpha _n} \le C,{\kern 1pt} for{\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} n = 1,2, \cdots ,N\\ {\rm{implicity}}\;\;{\rm{w = }}\sum\limits_{n = 1}^N {{\alpha _n}{y_n}{z_n}} \\ \;\;\;\;\;\;\;\;\;\;{\beta _n} = C - {\alpha _n} \end{array}

上述形式类似于hard-margin SVM dual,其实与hard-margin相比,只是在αn{\alpha _n}处多了一个上界C而已。

显而易见,上述形式的SVM可用QP来求解,其共有N个变量,2N+1条约束。

类似的,Kernel也可以用在soft-margin SVM里,此时,参数为,
αQP(QD,p,A,c)wn=1Nαnynzn\begin{array}{l} \alpha \leftarrow QP({Q_D},p,A,c)\\ w \leftarrow \sum\limits_{n = 1}^N {{\alpha _n}{y_n}{z_n}} \end{array}

类似于hard-margin,通过SV求解b,有,
SV(αs>0)b=ysysξswTzs\begin{array}{l} SV({\alpha _s} > 0)\\ \Rightarrow b = {y_s} - {y_s}{\xi _s} - {w^T}{z_s} \end{array}

上式在计算b的时候,有一项ysξs{y_s}{\xi _s},其中的ξs{\xi _s}是在求出b之后才能得到的,所以要想办法去掉该项,这里引入free的概念,即,
free(αs<C)ξs=0\begin{array}{l} free({\alpha _s} < C)\\ \Rightarrow {\xi _s} = 0 \end{array}

所以,在soft-margin SVM里,b是通过free  SV(xs,ys)free\;SV({x_s},{y_s})来求解的,即,
b=ysSVαnynK(xn,xs)b = {y_s} - \sum\limits_{SV} {{\alpha _n}{y_n}K({x_n},{x_s})}

当然,也可能存在没有free SV的情况,那这时b只能通过一系列的不等式来限制,此时b的值有很多个,只要满足KKT条件就行。但绝大多数的情形,都是存在free SV的。

参数选择例子,
机器学习——SVM(4 Soft-Margin SVM)

αn{\alpha _n}的含义,
机器学习——SVM(4 Soft-Margin SVM)

对于SV(αn>0{\alpha _{\rm{n}}} > 0),分为两种,
1.Free SV(正方形表示):0<αn<C,ξn=00 < {\alpha _n} < C,{\xi _n} = 0,在边界上,用于确定b;
2.Bounded SV(三角形表示):αn=C,ξn=violation  amount{\alpha _n} = C,{\xi _n} = violation\;amount ,违反边界或在边界上

对于非SV(αn=0{\alpha _n} = 0),有,
ξn=0{\xi _n} = 0 ,远离边界或者在边界上

综上,αn{\alpha _n}可用在资料分析方面上。