统计学习方法笔记——感知机

简介

感知机(perceptron)是二类分类的线性分类模型,输入为特征向量,输出为+1和-1二值。感知机学习旨在求出将训练数据进行线性划分的分离超平面,属于判别模型。通过导入基于误分类的损失函数,利用梯度下降对损失函数进行极小化,求得感知机模型。感知机学习算法分为原始形式对偶形式。于1957年由rosenblatt提出,它是神经网络支持向量机的基础。

感知机模型

定义:假设输入空间(特征空间)是XRn,输出空间是Y=+1,1,输入xX表示实例的特征向量,对应于输入空间的点;输出yY表示实例的类别。由输入空间到输出空间的如下函数称为感知机

(2.1)f(x)=sign(wx+b)

其中,w和b为感知机模型参数,wRn叫做权值或权值向量,bR叫做偏置(bias),sign是符号函数,即:
(2.2)sign(x)={+1x01x<0

感知机有如下几何解释:线性方程

(2.3)wx+b=0

对应于特征空间中的一个超平面S,其中w是超平面的法向量,b是超平面的截距,这个超平面将特征空间划分为两个部分,将特征向量分为正负两类,因此超平面S被称为分离超平面,如下图所示:
统计学习方法笔记——感知机

感知机学习策略

数据集的线性可分性

定义:给定义一个数据集T,如果存在某个超平面S

wx+b=0

能够将数据集的正负实例点完全正确的分到超平面的两侧,即对所有的yi=+1,有wxi+b>0,反之也成立。则称数据集T为线性可分数据集

感知机学习策略

假设数据集是线性可分的,则需要求得一个分离超平面,即确定模型参数w,b,需要一个学习策略,定义(经验)损失函数并将损失函数极小化。

损失函数的一个自然选择是误分类点的总数,但是,这样损失函数不是w,b的连续可导函数,不易优化。所以损失函数选择误分类点到超平面S的总距离。首先写出输入空间Rn中任意一点到超平面S的距离公式

1||w|||wx0+b|

其中||w||是w的L2范数。

公式证明:
x0到超平面S:wx+b=0的距离d的计算过程如下:
- 设点x0在超平面S上面的投影为x1,则wx1+b=0
- 由于向量\vec{x_0 x_1}与S平面的法向量w平行,所以:

|wx0x1|=|w||x0x1|=(w1)2+...(wN)2d=||w||d

又有:
wx0x1=w1(x01x11)+w2(x02x12)+...wN(x0Nx1N)=w1x01+w2x02+...wNx0N(w1x11+w2x12+...wNx1N)=w1x01+w2x02+...wNx0N(b)

所以:
||w||d=|w1x01+w2x02+...wNx0N+b|=|wx0+b|

变形抽出d**得证**:
d=1||w|||wx0+b|

看到网上还有种证明方法也挺有意思的,有兴趣的点击这里

对于误分类的数据(xi,yi)来说,yi(wxi+b)>0成立,因为误分类的数据真实结果yi和预测值总是符号相反,yi的取址为+1和-1。所以误分类的点到超平面S的距离是:

1||w||yi(wx0+b)

这样,假设平面的所有误分类点的集合M,到超平面S的总距离为:

1||w||xiMyi(wx0+b)

不考虑1||w||,就得到了感知机学习的损失函数。其中y(wx+b)称为样本点的函数间隔。至于为什么能够省略1||w||,这个是因为我们进行梯度求极小值的时候更新的是参数,省略的项并不会影响到参数的值,最终的参数的结果还是一样的。而且我们的数据集已经假设可以线性可分的了,最终的损失值会为0。

给定数据集T,xiX=RnyiY=+1,1。感知机sign(wx+b)学习的损失函数定义为:

(2.4)L(w,b)=xiMyi(wx0+b)

显然,损失函数是非负的。若无误分类的点,损失函数的值就是0,且误分类点离超平面越近,损失函数值就越小。

感知机学习算法

感知机学习算法的原始形式

感知机学习问题转化为求解损失函数式(2.4)最优化问题。最优化的方法是随机梯度下降法。求参数w,b(也算选取一个超平面),使其为以下损失函数极小化问题的解:

(2.5)minw,bL(w,b)=xiMyi(wx0+b)

随机选取一个误分类点,使用梯度下降对w,b进行更新。

算法2.1(原始形式)
输入:训练集T,其中输入是XRn,输出空间是Y=+1,1;学习率η(0<η1)
输出:w,b;感知机模型f(x)=sign(wx+b)
1. 选取初值w0,b0
2. 在训练集中选取数据(xi,yi)
3. 若yi(wxi+b)0

ww+ηyixi

bb+ηyi

4. 转至2,直到训练集中没有误分类点。

注:感知机学习算法由于采取不同的初值或者选取不同的误分类点,解可以不同。

算法的收敛性

这个证明说明对于线性可分数据集感知机学习算法原始形式收敛,即经过有限次迭代可以得到一个将训练数据集完全正确划分分离超平面感知机模型

为了方便推导,将偏置b并入权重w,记作w=(wT,b)T,同样也将输入向量扩充,记作x=(xT,1)T,显然,wx=wx+b

定理(Novikoff):假设数据集T是线性可分的,其中xiX=RnyiY=1,+1i=1,2,...N,则:
(1) 存在满足条件||wopt||=1的超平面woptx=woptx+bopt=0将数据集完全正确分开;且存在γ>0,对所有的i=1,2…,N

(2.8)yi(woptxi)=yi(woptxi+bopt)γ

(2) 令R=max1iN||xi||,则感知机算法(2.1)在训练数据集上面的误分类次数k满足不等式:
(2.9)k(Rγ)2

这里的证明部分略,在统计学习方法书上写的很详细了,理解也没什么难点。
因此这个定理表明误分类的次数k是有上界的,有限次搜索能够找到分离超平面。换句话说,当数据集可分时,感知机学习算法的原始形式迭代是收敛的。

感知机学习算法的对偶形式

对偶形式的基本思想是:将w和b表示为实例xi和标记yi的线性组合的形式,通过求解其系数而求得w和b,可假设初始值w0,b0均为0,对误分类点通过

ww+ηyixibb+ηyi

逐步修改w,b,设修改了n次,则w,b关于(xi,yi)的增量分别是αiyixiαiyi,这里αi=niη,所以最后学习到的w,b可以表示为:
(2.14)w=i=1Nαiyixi

(2.15)b=i=1Nαiyi

注:η=1时,表示第i个实例点由于误分类而进行更新的次数。实例点更新次数越多,代表它距离分离超平面越近,也就越难正确分类。

**算法2.2(感知机学习算法的对偶形式)
输入:线性可分的数据集T,其中输入是XRn,输出空间是Y=+1,1;学习率η(0<η1)
输出:α,b;感知机模型f(x)=sign(j=1Nαjyjxjx+b),其中α=(α1α2.....,αN)T
(1) α0b0
(2) 在训练集中选取数据(xi,yi)
(3) 如果yi(j=1Nαjyjxjx+b)0(这个点误分类了),则更新值:

αiαi+ηbb+ηyi

(4) 转至(2)直到没有误分类的数据。

对偶形式中的训练实例仅以内积的形式出现。为了方便,可以预先将训练集实例间的内积计算出来并以矩阵形式存储,这个矩阵就是Gram矩阵

G=[xixj]N×N

与原始形式一样,对偶形式的迭代是收敛的,存在多个解。

以上的过程通俗一点的讲法就是从训练集中选取x1,x2..xn,若哪个是误分类点,则更新对应的xiαi和b,然后从头开始选取,直到所有的点都正确分类。这段过程的例子在书上介绍很详细,结合书本看更好。

总结

  1. 感知机是根据输入实例的特征向量x对其进行二类分类的线性分类模型:
    f(x)=sign(wx+b)

    感知机模型对应于输入空间中的分离超平面wx+b=0
  2. 感知机学习的策略是极小化损失函数:
    minw,bL(w,b)=xiMyi(wx0+b)

    损失函数对应于误分类点到分离平面的总距离
  3. 感知机学习算法是基于随机梯度下降法的对损失函数的最优化算法,有原始形式对偶形式原始形式中,首先任意选取一个超平面,然后用梯度下降法不断极小化目标函数。在这个过程中使用随机梯度下降。最终求出合适的w和b。在对偶形式中,是间接的求w和b,通过将w和b表示为xiyi的线性组合,然后求解它的系数αi来求出w和b,其中w=α1x1+α2x2+..αNxN
  4. 当训练集线性可分时,感知机学习算法是收敛的。在训练集上面误分类次数k满足不等式:
    k(Rγ)2

    算法有无穷多个解,根据初值的选取或迭代顺序而不同。