第六周周报
第六周周报
在第五周周报中,我认为我很难再通过数据的处理,提高模型的训练水平,因此,我决定通过调整模型的参数,来提高我的模型,在上一周中,我学习了贝叶斯调参的方法,并且将其运用到了我的模型中,取得了不错的成果。
贝叶斯调参
相对于一些其他的调参方法,例如网格搜索,网格搜索通过遍历所有的参数组合,从而得出最优的结果,但是,对于本次比赛数据量较多的情况下,网格搜索的耗时相当长,而贝叶斯调参通过基于目标函数的过去评估结果建立替代函数,来找到最小化目标函数的值。它在尝试下一组参数时,会参考之前的评估结果。因此贝叶斯调参的速度也较快。
我采用的是python中的BayesianOptimization
具体步骤为:
- 定义优化函数,我通过定义一个函数,接受lightgbm模型中的相关参数,进行lightgbm模型的训练,然后返回相关的auc值。
- 确定参数的范围,用于初始化BayesianOptimization
- 调用maximize,进行调参,搜索最优参数
本期提交结果
利用优化好的参数进行训练,模型训练时间大大缩短,并且成绩上也有了很大的提高: