2020 CVPR Suppressing Uncertainties for Large-Scale FER
1. Motivation
很多表情数据集中存在大量的标签错误数据,这些错误主要是由模糊的面部表情、低分辨率的面部图像以及注释者的主观性引起的。
这中不确定性给基于深度学习的FER带来了较大挑战(使模型过拟合;影响模型学习有效特征),因此这篇文章文提出了一种简单有效的自愈网络(SCN),有效抑制不确定性,防止深度网络对不确定的人脸图像进行过拟合。
2. 网络结构
如上图所示,SCN(Self-Cure Network)由3部分组成。首先,给定一组表情图片,输入到CNN(本文使用ResNet18)提取图像特征,把提取到的图像特征输入到Self-Attention Importance Weighting Module模块,该模块学习到每个表情图片的权重(即重要性)进行损失函数的加权;然后,将上一模块得到的权值输入到 Rank Regularization Module 模块中,通过排序操作和基于边缘的损失函数对样本权值进行约束;最后, Relabeling 模块尝试通过估算的概率重新标签那些被认为错误的样本。
1)Self-Attention Importance Weighting Module
a.引入该模块目的:获取输入样本对训练的贡献。预计某些样本可能具有较高的重要度,而不确定的样本可能具有较低的重要度,即权重0-1之间的任意值;
b.组成:由一个全连接层和Sigmoid函数组成;
c.损失函数加权:权重直接乘以loss的话,因为有时候极端情况会导致有些图像的loss为0,这样会使得某个样本的权重为0,故作者自定义了损失函数,
和SoftMax损失函数很像,其实就是在softmax的基础上多了权重参数αi。
2)Rank Regularization Module
a.引入该模块目的:规范上一个模块输出的权重,进行正则化;
b.方法:作者将注意力权重以降序的方式排序,并按照超参数β将其划分为两组(高重要性组和低重要性组)——高重要性组的样本数=βxN,低重要性组的样本数=N-β*N。然后通过损失函数保证高重要性组的平均权重要高于低重要性组的平均权重一个阈值δ1(固定的超参数或科可学习的参数):
c.总的损失函数:
3)Relabeling Module
a.引入该模块目的:改正错误标签(存在于低重要性组中的样本);
b.方法:是否重标注的依据——模型预测的softmax概率。如果一个样本被预测为另一类的最大概率比原标签的概率大出一个阈值δ2时,就给她它赋予一个新的伪标签y’。
并且这些被改正的样本将有可能在下一轮训练中被赋予较大的权重。这样就完成了网络的重分配权重和数据集的重新标签。
3. 实验
1)图3主要展示了第三个模块relabel的重要性;
2)Tabel2和Tabel3主要是为了验证SCN在打乱标签的数据集中纠正标签的能力;
3)Tabel4主要验证SCN在真实数据集(即没有人工打乱标签)中抑制不确定性数据的效果;
4.)Tabel5,消融实验,验证SCN的每个模块的作用;
5.)Tabel6,调参γ;
6.)图5,调参δ1,δ2,β;
7)Tabel7,和其他方法进行对比实验。
4. 分析
这篇文章的创新点很新颖,通过抑制数据的不确定性来学习更多有效的特征,其实利用了数据的先验知识,进而设计模型框架进行表情识别;
但是准确率的提升幅度并不大,在没有预训练的情况下,在RAF 数据集上是87.03%。