ML学习笔记第三周(三):多分类问题

1 一对多算法(One-vs-all)

1.1 多分类问题举例

ML学习笔记第三周(三):多分类问题

1.2 算法解释

二分类问题上一篇博客讲了逻辑分类算法,将训练样本分为positive和negative;如果说,有超过3个类别,我们需要做的就是,分别将类别1、2、3作为positive,其余的两个类别作为negative(23、13、12),这样我们就可以得到3个假设函数(分类器)hθ(i)(x)i=1,2,3h^{(i)}_\theta(x),(i=1,2,3).
ML学习笔记第三周(三):多分类问题
关于假设函数hθ(i)(x)i=1,2,3h^{(i)}_\theta(x),(i=1,2,3).的数学意义,之前已经提到过,是在给定训练集xx和参数θ\theta下,y=iy=i的概率。当再次输入新样本xx时,我们就可以分别代入3个假设函数hθ(i)(x)i=1,2,3h^{(i)}_\theta(x),(i=1,2,3)中,进而计算其概率,概率最大的那个类别,就是它最可能的类别,即此时可信度最高。
ML学习笔记第三周(三):多分类问题
ML学习笔记第三周(三):多分类问题

2 参考资料

1、吴恩达机器学习笔记-Logistic回归模型
2、机器学习-第三周