GBDT与XGBoost【基于负梯度拟合】的说明

为了不让自己在深度学习的网络里迷失…嗝~~,回顾了一下机器学习
相信大家看到集成学习的时候,类似于adaboost等思路还是挺清晰的,BDT里面的基于拟合残差思想也好理解,但是碰到gbdt时候有点蒙蔽【只针对小白,大佬绕行…】----这怎么就变成了根据损失函数的负梯度拟合呢,(编辑公式有点烦,我就把pad笔记拿上来)

GBDT与XGBoost【基于负梯度拟合】的说明
说明:t是更新到第t次的意思,i是样本标记,为什么不写xgboost?,因为xgboost基础的原理就是二阶泰勒展开,可以自行推导
参考:李航统计学习方法,陈天奇PPT