基于Bagging与boosting的算法2---AdaBoost
弱分类器—后一个在前一个的基础上提升
误差越小,权重越大
W_t(i)每个样本的权重
样本权重更新的计算—错误样本,增加权重。错的才计算误差,正确的不计算误差
错误的,权重提高;但不代表每次都抽到错误的。
权重越大,被抽到的概率,越高
https://scikit-learn.org/stable/
在api里面搜索:Adaboost.参数自己调。
弱分类器—后一个在前一个的基础上提升
误差越小,权重越大
W_t(i)每个样本的权重
样本权重更新的计算—错误样本,增加权重。错的才计算误差,正确的不计算误差
错误的,权重提高;但不代表每次都抽到错误的。
权重越大,被抽到的概率,越高
https://scikit-learn.org/stable/
在api里面搜索:Adaboost.参数自己调。