林轩田机器学习基石笔记(第16节)——概率论与机器学习建立连接

抽样与机器学习的对应关系
  • 我们不知道罐子中橘色弹珠的数量比例,对应在机器学习中就是我们不知道在hypothesis中哪个h(x) 是我们要找的
  • 弹珠表示x
  • 橘色的弹珠代表 h(x)f(x)
  • 绿色的弹珠代表 h(x)=f(x)
  • 抽样得到的橘色弹珠的比例对应机器学习中对应 h(x)f(x) 的几率

通过下图可以比较直观的看出:
林轩田机器学习基石笔记(第16节)——概率论与机器学习建立连接

现在引入两个值Eout(h)Ein(h)对应抽样中的 μ 和 ν (其中 μ 代表真实的橘色弹珠比例,v代表抽样时橘色弹珠的比例)
  • Eout(h)代表实际上h(x)f(x)的比例,未知
  • Ein(h)代表训练样本中h(x)f(x)的比例,已知
  • 最后用已知的Ein(h)推论未知的Eout(h)

如下图:
林轩田机器学习基石笔记(第16节)——概率论与机器学习建立连接

Eout(h)Ein(h)代入到霍夫丁不等式中得到:

P[|vμ|>ϵ]2exp(2ϵ2N)

P[|Ein(h)Eout(h)|>ϵ]2exp(2ϵ2N)

在上一节我说,我们不需要关心 μ 是多少,所以在这里我们也不关心Eout(h)是多少,也不需要关心P是多少。

现在我们得到重要结论:根据霍夫丁不等式,我们可以由Ein(h)推论Eout(h),即Eout(h)Eout(h)

Ein(h)很小,即h(x)f(x)Ein(h)中出现很少,那么说明在Eout(h)中也会很少犯错。

Ein(h)依然还不是最优解

单个 h 的情况下,当N足够大的时候也会有Eout(h)Eout(h),但这并不代表该 h 就是我们想要的 h 使得h=ggf

因为我们知道hypothesis中有很多的 h ,我们不能保证手上的这条 h 就是最好的那条,所以在以后的课程中我们还要介绍如何才能从hypothesis中选出最优的 h


===========================懵逼分割线===========================

欢迎大家加入Q群讨论:463255841

===========================懵逼分割线===========================