统计学习方法笔记(十一)支持向量机(二)
线性可分支持向量机与软间隔最大化
一、线性支持向量机
当数据是线性不可分的时候,不等式约束并不总是成立的,所以需要修改硬间隔最大化,使其成为软间隔最大化。
对于训练数据来说,所谓的线性不可分,指数据中有一些特异点,其无法满足函数间隔大于等于1的约束条件。为了解决这个问题,对每个样本点引入了一个松弛变量,使其函数间隔加上这个松弛变量满足相应的条件,这样,约束条件变为:
同时,因为引入了一个松弛变量,所以要支付一个代价,目标函数变为:
所以,可以得到如下的凸二次规划问题:
最终可以证明,w的解是唯一的,而b的解不唯一,且存在一个区间上。
线性支持向量机的模型:
二、学习的对偶算法
1、原始问题的对偶问题变为:
最终可求得,其解为:
2、支持向量
如图所示,支持向量是对应于 的实例点。其或者在间隔边界上,或者在间隔边界与分离超平面之间,或者在分离超平面误分的一侧。
三、合页损失函数
合页损失函数是对线性支持向量机学习的另一种解释,其实质是实现以下目标函数的最小化:
显然,正常来说, 应该大于1,代表没有被误分类,损失为0,一旦被误分类,其损失为上式中的第一项。
合页损失函数与原始最优化问题等价。