机器学习-支持向量机的数学讨论

1 支持向量机的特点:

  • 泛化错误率较低,计算开销不大,结果容易解释;
  • 对于参数和核函数选择敏感
  • 可以适用于标称型数据和数值型数据

2 SVM解释如下:

  • 对于二分类问题,寻找其线性可分的可能性。如果能够实现分割,则称为分割超平面。具体的,对于N维数据,需要构建一个(N-1)维的超平面。
  • 由于超平面的构建的多样性,可以引入支持向量的概念,来量化分割超平面的好坏,从而定义超平面两侧的点到超平面的最小垂直距离
  • 将超平面两侧点到超频面的最小垂直距离称为间隔,希望间隔越小越好,这样能够实现较高的数据容差,保证了分类器的稳健。而支持向量就是离分隔超平面最近的点。

3 如何求解点到分割超平面的距离?

  • 为了研究分割超平面,首先需要给出其数学形式,最简单的N维数据分割超平面形式为wTx+b=0,其中w
    N*1向量,x为N*1向量,而b为标量。
  • 对于任意一点A,坐标记为(x1,x2,...,xN),距离上述分割超平面的距离为|wTA+b|||w||。数学证明可以采用向量方式,初等数学即可。

4 如何评价分类情况的好坏

  • 对于计算得到的超平面方程,可以将测试点带入,这样可以得到一个数据,具体来说,代入点u,计算y=wTu+b。然后将结果输入到一个二分类的非线性函数中,得到映射后的分类情况。
  • 支持向量机使用的非线性函数是采用label=+-1映射的情况,因此可以使用label(wTu+b),这样当结果较大时,则表明点u在离超平面很远的地方,间距较大。当然,如果分类错误,则会产生一个负数,负数越大,证明分类的误差越大。

5 如何定义优化的目标函数

  • 根据上述分析,可以定义出一个优化问题: 存在参数(向量w和标量b),需要步骤4的表达式,也就是label(wTu+b)尽量大。由于存在多个u,则可以定义评价函数。
  • 问题表述为(较难求解)
    argmaxw,b{min(label(wTu+b)||w||)}

6 标准形式的推导

  • 上式较难求解,可以采用等效变换的方式。首先,向量w和标量b可以同时放大或者缩小k倍,这并不会影响上述求解值(向量平移性质有关)。因此,可以利用该条件,定义label(wTu+b)>=1,其中支持向量能够使得等式成立。如果满足该条件,那么原问题也成立。当然,这是假设分类均正确
  • 接下来,对于分数形式的优化,可以采用最小化分子项和最大化分母项来进行,分子项最小为1,因此该式可以转换为如下的优化问题:
    argminw,b1||w||
  • 为了能够求解上一个优化问题,结合二次规划算法,可以最终将等式转化如下:
    argminw,b12||w||2,st.yi(wTxi+b)>=1
  • 对于上述问题,可以利用凸二次优化方法进行求解。QP方法 quadratic programming

7 对偶形式推导

7.1 拉格朗日乘子法: 将带约束的情况转换为无约束情况。

  • 对于等式约束的拉格朗日乘子法,其原理为(可能的一种理解方法):
    1. 对于minf(x),st.wiTx+bi=0,i=1...N,可以转换为无约束的等式L(x,αi)=f(x)+i=1 to Nαi(wiTx+bi)
    2. 对于上式L,求解对于x的偏导项,则可以得到x关于αi的表示,x项从f/x产生,而αi从后面的项产生;
    3. 将x关于αi的表示带入约束等式中,可以得到αi的值,该值能够保证约束等式成立,也就是说,L(x,αi)=L(αi)=f(x)。而对于L(x,α)显然是通过进行偏微分求最小化的过程,这也意味着,得到的α能够保证f(x)得到最小化的结果;
    4. αi带入x等式,得到满足条件的等式。
      综上,也就是说,如果能够找到一组αi,使得x能用αi表示,保证满足约束等式。那么,无约束问题等于有约束问题,而对于无约束问题的求导,则对应了有约束问题的导数值为0的情况。
  • 一般的拉格朗日乘子法(KKT条件),这里将非线性优化问题转换为固定的优化问题,可以尝试采取算法进行求解。
    机器学习-支持向量机的数学讨论
  • 对于KTT条件的一种理解方法是,如果存在一个优化的x不满足该条件,如果h(x)!=0,那么可以取β很大,则L趋于无穷大;如果g(x)>0,那么取α很大,则L也趋于无穷大。这两种情况都不存在极值。
  • 或者另外一种理解方法(不一定对),对于L进行α偏导时,得到的是g(x),该函数始终小于0,则导致无法得到有效极值。因此需要存在第四项条件。
  • 第三项条件是由于g(x)<=0约束得到,当不满足α>=0,则α可以取极小的负数,也不存在极值。

综上,得到了一个无约束条件的函数Θp(x)=maxα,β;α>=0L(x,α,β),求解该问题时,如果x满足约束条件,则Θp(x)=f(x),否则将趋于无穷大。

7.2 对于SVM的等效变换

  • 对于下列优化问题,

    argminw,b12||w||2,st.yi(wTxi+b)>=1

    可以利用拉格朗日乘子法进行等效,
    argmaxw,b12||w||2+i=1Nαi(1yi(wTxi+b))

    该广义变换需要满足如下条件:
    L(w,b,αi)/w=0

    L(w,b,αi)/b=0

    L(w,b,αi)/αi=0

    αi>=0

    yi(wTxi+b)>=1

    i=1Nαi(1yi(wTxi+b)=0

    该问题本质是求解一个minw,bΘp(x)=minw,bmaxαi;αi>=0L(w,b,αi),这是一个极小极大值问题,内层带约束项,可以利用拉格朗日对偶原理转换为极大极小值问题,内层优化问题无约束。

  • 由于内层优化无约束,则可以利用导数为零获得,获得的w和b为内层最优化的候选解。

    L(w,b,αi)/w=0

    L(w,b,αi)/b=0

    该等式的结果为:
    w=i=1Nαiyixi

    i=1Nαiyi=0

    将这两个等式带入,则得到只包含外层优化的情况,该优化问题是一个约束优化问题:
    maxαi;αi>=0(i=1Nαi12i=1Nj=1NαiαjyiyjxiTxj)

    st. αi>=0;i=1Nαiyi=0

8 SVM的求解和最终形式确定

  • 通过SMO等方法,可以求得上述优化问题的αi,然后w可以利用w=i=1Nαiyixi得到。
  • b的确定需要追溯到开始的简化条件,因为前面,我们假设了yi(wTxi+b)>=1,并且对于支持向量等号成立。另外一方面,根据拉格朗日乘子法的一些性质,当αi>0,则对应的输入xi即为支持向量。
  • 具体的操作是,选取所有αi>0,对于每一个αi,带入下面等式,其中下标为i代表支持向量。
    b=yij=1Nαjyj<xi,xj>
  • 为了进一步缩小误差,可以采用平均方法,将所有的αi>0的情况得到的b进行平均

  • 最终得到的分类器如下所示,因此对于SVM的结果存储,可以只存储求解得到的αi>0和对应的支持向量xi,以及求解得到的b。预测过程中所需要的内存空间非常小。

    f(x)=sign{i=1N(αiyi<xi,x>+b)}

  • SVM没有假设数据的分布情况,其最优的思想来源于使得不同类别距离分类平面的间距尽量大。

9 允许分类错误的SVM推导

  • 如下图所示,左侧为无分类错误的硬间隔SVM,右侧为存在分类错误的软间隔SVM。在右图中,存在训练错误的包括了ξ1,ξ2,ξ3,ξ4,ξ5
    机器学习-支持向量机的数学讨论
    因此对于软间隔SVM,存在以下五种分类情况:

    • 在间隔以外的情况,这是分类正确的情况,并且这类数据不构成支持向量(αi=0,yif(xi)1>0,ξi=0)
    • 在间隔线上,这也是分类正确的情况,这类数据构成支持向量(C>αi>0,yif(xi)1=0,ξi=0)
    • 在间隔内部,但是未达到分类错误的地步,例如ξ1,ξ2,ξ4,此时对应了αi=C,yif(xi)1<0,0<ξi<1
    • 在分类超平面上,此时对应了αi=C,yif(xi)1<0,ξi=1
    • 跨过分类超平面,此时分类错误,对应了αi=C,yif(xi)1<0,ξi>1
  • 综合上述分析,可以得到下列的基于hinge-loss的SVM优化问题:

minw,b,ξi{12||w||2+Ci=1Nξi}

st. yi(wTxi+b)>=1ξi, ξi>=0

- 同样利用拉格朗日乘子法进行优化,并结合拉格朗日对偶原理,得到的优化问题如下:

minw,ξimaxαi,μi;αi>=0,μi>=0{12||w||2+Ci=1Nξi+i=1Nαi(1ξiyi(wTxi+b))i=1Nμiξi}

maxαi,μi;αi>=0,μi>=0minw,ξi{12||w||2+Ci=1Nξi+i=1Nαi(1ξiyi(wTxi+b))i=1Nμiξi}

为了使得上述两式相等,需要满足KKT条件:
L(w,b,αi,μi)/w=0

L(w,b,αi,μi)/b=0

L(w,b,αi,μi)/αi=0

L(w,b,αi,μi)/μi=0

αi>=0, μi>=0

yi(wTxi+b)>=1ξi, μiξi=0

i=1Nαi(1ξiyi(wTxi+b)=0

对于上上式,内层求解为无约束情况,则可以通过求解偏导数为0得到候选等式,然后带入外层得到等效的问题,该问题得以极大简化,与硬间隔SVM相比,多了一个上约束,同样可以采用SMO进行求解。(多了一个等式约束αi+μi=C
maxαi;αi>=0(i=1Nαi12i=1Nj=1NαiαjyiyjxiTxj)

st. C>=αi>=0;i=1Nαiyi=0

  • 在获得可行的αi后,可以得到w=i=1Nαiyixi,然后选取C>αi>0的情况,这对应了支持向量,求解得到b=yij=1Nαjyj<xi,xj>。而上述分析中的C控制允许误差的大小,ξi对应了每一项的分类误差情况,输出为hinge-loss的大小。
  • 总体总结如下:
    • αi=0,此时分类正确,在间隔外部,ξi=0,μi=C
    • C>αi>0,此时为支持向量,ξi=0,0<μi<C
    • αi=C,此时间隔内,误差由ξi决定,μi=0

10. 非线性SVM的推导

  • 实际操作时,将上述的xTx换成核函数即可。
  • 非线性SVM运用的原理是,有限维属性的数据可以通过高维映射转化为高维可分的情况。而映射问题会出现无法预估映射后线性可分的可行性,以及可能会带来的过拟合问题,因此可以使用核函数代替高维映射操作,简化了操作。
  • 值得注意的时,高维映射操作和核函数操作无直接关联,高维映射操作是通过升维内积的方式,而核函数是通过内积变换的方式,二者不存在对应关系。
    机器学习-支持向量机的数学讨论

  • 能够作为核函数需要满足核函数定理,即对于任意一个矩阵,其列向量的内积构成的矩阵元素通过核函数操作后得到的矩阵是半正定的,那么该对称函数可以作为核函数。对称半正定还带来其他性质,例如行列式非负、顺序主子式非负、特征值非负等,其定义来自于二次型非负。

  • 常用的核函数包括线性、多项式、高斯核、拉普拉斯核、sigmoid核。
  • 核函数的正数线性组合、核函数的积、核函数与任意函数的组合同样为核函数,可以参考西瓜书page128~129.

http://blog.****.net/daunxx/article/details/52079403