[arxiv 20200628] Few-Shot Class-Incremental Learning via Feature Space Composition
论文下载
[1] CVPR 2020: Semantic Drift Compensation for Class-Incremental Learning
[2] CVPR 2020: Few-Shot Class-Incremental Learning
什么是小样本类别增量学习?
模型首先在一个大规模的基础数据集 上进行训练,然后会不断增加新的数据集,,且数据集中的类别与基础数据集中的不同,样本数量也较少,在学习新的样本过程中,还不能忘记之前学习过的样本。这一过程面临两个难题:灾难性遗忘和新的数据产生过拟合问题。
动机
增量学习过程中,base tasks 学习的是base knowledge,而new tasks学习的是new (lifelong) knowledge。所以,模型包含两个组件,一个base组件,一个life-long learning组件,分别用于保持旧知识和学习新知识。
如上图所示,base就是base组件,而model t就是life-long learning组件。base的参数是保持不变的。
嵌入网络
小样本类别增量学习的图像分类框架主要有两种,特征提取器+softmax分类器,特征提取器+NCM分类器。在[1]中详细讨论了,用softmax分类器的挑战性以及面对很长的任务序列的困难性。
嵌入网络训练
使用度量损失来使得相似实例更近,不相似实例有一定距离。
其中,是度量损失项,是正则化项,用来保持过去的知识。一般使用三元损失。
其中,,分别表示anchor 和正例以及反例的欧氏距离,表示间隔。
嵌入空间分类
训练好嵌入网络之后,(nearest class mean)NCM用来分类,定义如下:
i是什么?
是一个距离度量(比如欧式距离)。是实例的嵌入表示。是类别的原型,用类别嵌入均值表示,定义如下:
其中 是指示函数。
就写到这。