L1正则化与稀疏性

L1正则化与稀疏性

L1正则化使得模型参数具有稀疏性的原理是什么?

机器学习经典之作《pattern recognition and machine learning》中的第三章作出的一个解释无疑是权威且直观的,我们也经常都是从这个角度出发,来解释L1正则化使得模型参数具有稀疏性的原理。再回顾一下,以二维为例,红色和黄色的部分是L1、L2正则项约束后的解空间,蓝色的等高线是凸优化问题中的目标函数(未加入正则项的)的等高线,如图所示,L2正则项约束后的解空间是圆形,而L1正则项约束后的解空间是菱形,显然,菱形的解空间更容易在尖角处与等高线碰撞出稀疏解。
L1正则化与稀疏性
假设原目标函数是y=(w12)2+(w22)2y=(w_1-2)^2+(w_2-2)^2
在未加入正则项之前,这个最优解无疑是w1=2w2=2(w_1=2,w_2=2)
但加入了正则项
y=(w12)2+(w22)2+1w12+w22y=(w_1-2)^2+(w_2-2)^2+1*(w_1^2+w_2^2)之后但最优解就不再是w1=2w2=2(w_1=2,w_2=2)
而是w1=1w2=1(w_1=1,w_2=1)
这是(w12)2+(w22)2=a(w_1-2)^2+(w_2-2)^2=aw12+w22=bw_1^2+w_2^2=b这两个圆的切点。切点处a=2,b=2,此时正好a=b,这与我们的目标函数取值y=(w12)2+(w22)2y=(w_1-2)^2+(w_2-2)^2是个圆形有关,如果是其他形状,不一定有a=b。

上面的解释无疑是正确的,但还不够准确,也就是回答但过于笼统,以至于忽略了几个关键问题,例如,为什么加入正则项就是定义了一个解空间约束,为什么L1、L2正则项的解空间不同。如果第一个问题回答了,第二个问题相对好回答。
其实可以通过kkt条件给出一种解释。
事实上,“带正则化项”和“带约束条件”是等价的,为了约束w的可能取值空间从而防止过拟合。

如果我们为线性回归加上一个约束,就是w的l2范数不能大于m:
mini=1N(yiwTxi)2s.t.w2<=m(1)min \sum_{i=1}^{N} (y_i-w^{T}x_i)^2\\ s.t. ||w||^2<=m \tag1

为了求解这个带约束条件的不等式,我们会写出拉格朗日函数
i=1N(yiwTxi)2+λ(w2m)(2)\sum_{i=1}^{N} (y_i-w^{T}x_i)^2+\lambda(||w||^2-m) \tag2
如果ww^{*}是原问题(1)的解,λ\lambda^{*}是对偶问题(2)的解,
一般都是先求出对偶问题的解λ\lambda^{*},然后带入kkt条件中(λ\lambda^{*}ww^{*}的关系),就能求出ww^{*}ww^{*}也必然是原问题的解。
这里kkt条件是:
0=minw(i=1N(yiwTxi)2+λ(w2m))s.t.0<=λ(3)0=min \nabla_w(\sum_{i=1}^{N} (y_i-w^{*T}x_i)^2+\lambda^{*}(||w^{*}||^2-m))\\ s.t. 0<=\lambda^{*} \tag3

其中,第一个式子就是带L2正则项的优化问题最优解ww^{*},而λ\lambda^{*}是L2正则项前的系数。

这就是为什么带正则化项相当于为参数约束了解空间,且L2正则项为参数约束了一个圆形解空间,L1正则项为参数约束了一个菱形解空间,如果原问题的最优解没有落在解空间的内部,就只能落在解空间的边界上。
而L1正则项为参数约束了一个“棱角分明”的菱形解空间,更容易与目标函数等高线在角点,坐标轴上碰撞,从而产生稀疏性。

看到上面,其实我直接有个疑问,就是“如果我们为线性回归加上一个约束,就是w的l2范数不能大于m”、这句话里的m是个固定的确定值,还是瞎设的值。
后面我的想法是,任意给定一个m值,都能得到一个两圆相切的切点,从而得到其给定m条件下的带正则项的最优解,然后在不同的m值中,再选出某个m值对应的最优解是全局最优解,从而得到最终的最优解。