[李宏毅-机器学习]终身学习 Life-long learning
用同一个模型能解决很多任务
knowledge retention
在task1上训练的model,在用于task2的训练后,发现在task1上的performance就下降了
让在新任务上学习到的参数,使得其与之前任务上得到的参数的距离不是很远,每个参数都有一个b来控制它的重要程度
knowledge transfer
model expansion
用同一个模型能解决很多任务
knowledge retention
在task1上训练的model,在用于task2的训练后,发现在task1上的performance就下降了
让在新任务上学习到的参数,使得其与之前任务上得到的参数的距离不是很远,每个参数都有一个b来控制它的重要程度
knowledge transfer
model expansion