Bias-Variance Tradeoff(方差、偏差、误差)通俗理解

  • 直译

Bias:偏见,乖离率,偏重

Variance:方差、分歧、不一致

Tradeoff:权衡、参数折衷;(公平)交易;技术经济研究

  • 准确

准确是两个概念:准、确。

准是bias小,就是偏差小;

确是variance小,就是分歧小,一致性强。

Bias和Variance是针对Generalization(一般化,泛化)来说的。

在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个Loss function(误差函数),通过将这个Loss(或者叫error)的最小化过程,来提高模型的性能(performance)。然而我们学习一个模型的目的是为了解决实际的问题(或者说是训练数据集这个领域(field)中的一般化问题),单纯地将训练数据集的loss最小化,并不能保证在解决更一般的问题时模型仍然是最优,甚至不能保证模型是可用的。这个训练数据集的loss与一般化的数据集的loss之间的差异就叫做generalization error。而generalization error又可以细分为Bias和Variance两个部分。

  • 统计误差的理论

在机器学习的模型与数据背后的真实规律之间总会存在差异,在科学人的前提下,这种差异来源还剩下三个:随机误差、偏差、方差。

偏差和方差与欠拟合和过拟合紧密相关。

因为随机误差是不可消除的客观存在,在数学层面就只剩偏差和方差,需要寻求偏差和方差之间的权衡(Bias-Variance Tradeoff)。

  1. 随机误差

随机误差是数据本身的噪音带来的,这种误差是不可避免的。

一般认为随机误差服从高斯分布,记作
ϵN(0,σϵ) \epsilon ∼ N(0, \sigma_{\epsilon})

因此,若有变量 y作为预测值,以及 X 作为自变量(协变量),那么我们将数据背后的真实规律 f 记作
y=f(X)+ϵ y = f(X) + \epsilon

随机误差是一种自然哲学领域的无可奈何,偏差和方差则是统计学上的一种选择。也就是噪声(Noise)

  1. 偏差Bias

偏差面熟的是通过学习拟合出来的结果的期望,与真实规律之间的差距:
Bias(X)=E[f^(X)]f(X) Bias(X) = E[\hat{f}(X)] - f(X)

偏差是一种针对单个结果评价的角度,刻画了学习算法本身的拟合能力。是模型带来的。

  1. 方差Variance

方差描述的是通过学习拟合出来的结果自身的不稳定性:
Var(X)=E[(f^(X)E[f^(X)])2] Var(X) = E[(\hat{f}(X) - E[\hat{f}(X)])^2]

方差是对多次结果综合考察的角度,刻画了数据扰动所造成的影响。是数据带来的。

对于均方误差:
Err(X)=E[(yf^(X))2]=E[(f(X)+ϵf^(X))2]=(E[f^(X)f(X)])2+E[(f^(X)E[f^])2]+σϵ2=Bias2+Variance+RandomError Err(X) = E[(y-\hat{f}(X))^2]\\ = E[(f(X) + \epsilon -\hat{f}(X))^2]\\ = (E[\hat{f}(X) - f(X)])^2 + E[(\hat{f}(X)- E[\hat{f}])^2] + \sigma^2_{\epsilon}\\ =Bias^2 + Variance + Random Error

  • 图形描述统计学

将机器学习任务描述维打靶活动:

根据相同算法、不同的数据集训练出的模型,对童年谷一个样本进行预测,每个模型作出的预测相当于一次打靶。

Bias-Variance Tradeoff(方差、偏差、误差)通俗理解

左上角图片是偏差、方差都小,在有无限数据、完美模型算法的前提下是可以实现的理想状态。

另外三个是现实。

  • 权衡

训练误差是0当然好,但不存在,因为至少还有随机误差,哪怕随机误差都为0,训练数据还有误差。

发现平凡是唯一的答案,不找完美只找平衡点:

Bias-Variance Tradeoff(方差、偏差、误差)通俗理解

  • Reference

  1. 谈谈 Bias-Variance Tradeoff
  2. Understanding the Bias-Variance Tradeoff
  3. 知乎 J JR