论文题目:Deep Metric Learning by Online Soft Mining and Class-Aware Attention(来源:AAAI2019)
解决的问题:
- 深度量学习由于大部分平凡样本而遭受慢收敛,大多数现有方法通常采用样本挖掘策略来选择非平凡样本以加速收敛并提高性能。以前的挖掘方法为每个样本分配一个二进制分数,即删除或保留它,因此它们只在一个小批中选择相关样本的一个子集。
- 由于离群值通常包含在挖掘的子集中,现有的方法很容易受其影响。
解决方案:
- 提出一种新的样本挖掘方法:在线软挖掘(Online Soft Mining,OSM)。它将一个连续的分数分配给每个样本,以充分利用小批量中的所有样本。OSM学习扩展流形(extended manifolds),通过将重点放在更类似的正例上,保留有用的类内差异。
- 引入类感知注意机制(Class-Aware Attention,CAA),用来分配更少的注意力在异常数据样本上。CAA的作用为:通过图像与标签的语义关系来识别噪声图像,图像xi的CAA得分表示它与其标签yi在语义上有多大关系
- 结合OSM和CAA,提出一种新的加权对比损失函数(weighted contrastive loss)
方法细节:
-
OSM分为在线正例挖掘(OSPM),在线负例挖掘(OSNM),OSPM、OSNM的分数分别为:sij+=exp(−dij2/σOSM2)sij−=max(0,α−dij) 说明:dij=∥fi−fj∥2 ,σOSM为超参数。给定数据集X={(xi,yi)},xi代表第i个图像,yi代表对应的标签,通过学习一个 嵌入函数f 使得相似对的特征(feature)被拉到一起,不同对的特征被推开,嵌入函数f 的输入为xi,输出为fi。
-
类感知注意CAA的分数用来评价图像与标签的语义关系,计算公式:ai=∑k=1Cexp(fi⊤ck)exp(fi⊤cyi),ck代表class context vector,是全连接层的训练参数
-
加权对比损失函数(weighted contrastive loss)计算公式:
LWCL(P)=21∑(xi,xj)∈Pwij+∑(xi,xj)∈Pwij+dij2
LWCL(N)=21∑(xi,xj)∈Nwij−∑(xi,xj)∈Nwij−max(0,α−dij)2
LWCL(P,N)=(1−λ)LWCL(P)+λLWCL(N)
其中,权重w的定义为:wij+=sij+∗aij wij−=sij−∗aij aij=min(ai,aj)
实验:
实验设置:网络的backbone architecture:GoogleNet with batch normalisation
实验种类:
- 细粒度分类:数据集分识为CUB-200-2011,CARS196,提高了最先进水平1.5%,实验结果:
- 视频中的人物重识别:数据集分别为MARS, LPW 。在MARS数据集上比CAE提高2.3%(CMC-1),4.9%(mAP)

在数据集LPW上,取得最先进水平(CMC)