Bias-Variance Tradeoff(方差、偏差、误差)通俗理解
Bias:偏见,乖离率,偏重
Variance:方差、分歧、不一致
Tradeoff:权衡、参数折衷;(公平)交易;技术经济研究
准确
是两个概念:准、确。
准是bias小,就是偏差小;
确是variance小,就是分歧小,一致性强。
Bias和Variance是针对Generalization(一般化,泛化)来说的。
在机器学习中,我们用训练数据集去训练(学习)一个model(模型),通常的做法是定义一个Loss function(误差函数),通过将这个Loss(或者叫error)的最小化过程,来提高模型的性能(performance)。然而我们学习一个模型的目的是为了解决实际的问题(或者说是训练数据集这个领域(field)中的一般化问题),单纯地将训练数据集的loss最小化,并不能保证在解决更一般的问题时模型仍然是最优,甚至不能保证模型是可用的。这个训练数据集的loss与一般化的数据集的loss之间的差异就叫做generalization error。而generalization error又可以细分为Bias和Variance两个部分。
在机器学习的模型与数据背后的真实规律之间总会存在差异,在科学人的前提下,这种差异来源还剩下三个:随机误差、偏差、方差。
偏差和方差与欠拟合和过拟合紧密相关。
因为随机误差是不可消除的客观存在,在数学层面就只剩偏差和方差,需要寻求偏差和方差之间的权衡(Bias-Variance Tradeoff)。
随机误差是数据本身的噪音带来的,这种误差是不可避免的。
一般认为随机误差服从高斯分布,记作
因此,若有变量 y作为预测值,以及 X 作为自变量(协变量),那么我们将数据背后的真实规律 f 记作
随机误差是一种自然哲学领域的无可奈何,偏差和方差则是统计学上的一种选择。也就是噪声(Noise)
偏差面熟的是通过学习拟合出来的结果的期望,与真实规律之间的差距:
偏差是一种针对单个结果评价的角度,刻画了学习算法本身的拟合能力。是模型带来的。
方差描述的是通过学习拟合出来的结果自身的不稳定性:
方差是对多次结果综合考察的角度,刻画了数据扰动所造成的影响。是数据带来的。
对于均方误差:
将机器学习任务描述维打靶活动:
根据相同算法、不同的数据集训练出的模型,对童年谷一个样本进行预测,每个模型作出的预测相当于一次打靶。
左上角图片是偏差、方差都小,在有无限数据、完美模型算法的前提下是可以实现的理想状态。
另外三个是现实。
训练误差是0当然好,但不存在,因为至少还有随机误差,哪怕随机误差都为0,训练数据还有误差。
发现平凡是唯一的答案,不找完美只找平衡点: