防止过拟合的方法(如CNN):
图像增强(Image Augmentation)
通过向训练集中的现有图像应用随机图像转换,人为地增加训练集中的图像数量。


丢弃(Drop out):
在训练过程中,从神经网络中随机选择固定数量的神经元并关闭这些神经元。


L1/L2 Regularization
利用这两种正则化方法对Loss Function添加Penalty


早停法:
对于此方法,我们会在训练过程中跟踪验证集的损失,并根据该损失判断何时停止训练,使模型很准确,但是不会过拟合。
(实际操作很难)