【人脸识别】A Discriminative Feature Learning Approach for Deep Face Recognition
一、理解
1、核心思想
2、论文效果
3、总结
二、原文翻译
1、abstract
卷积神经网络目前广泛应用于计算机视觉领域,明显地提高了state-of-the-art。在大多数可用的CNNs中,softmax损失函数被用作监督信号以训练深度模型。为了提高深度学习特征的判别能力,这篇论文为人脸识别任务提出一个新的监督信号,成为center loss。特别的,center loss同时学习每个类的深度特征,惩罚深度特征与其类中心之间的距离。更重要的是,我们验证了提出的center loss 函数在CNNs中是可训练的,并且容易优化的。在同时使用softmax loss和center loss,我们训练了鲁棒的CNNs来获得两个关键学习目标的深度特征,类间离散度和类内紧密度,这对人脸识别来说非常关键。这使得我们的CNNs(同时使用softmax loss和 center loss)在几个比较重要的人脸识别基准上,包括Labeled Faces in the Wild (LFW), YouTube Faces(YTF), and MegaFace Challenge,实现了state-of-the-art准确率。特别的,我们的新方法在MegaFace (the largest public domain face benchmark),根据小训练集协议(包含了50万图像,2万个人),实现了最好的结果,明显比先前的结果提高很多,在人脸识别和人脸验证任务上都实现了新的state-of-the-art结果。
2、introduction
常见的使用CNNs进行特征学习和标签预测,如下图所示,将输入数据映射到深度特征(最后一层隐藏层的输出),然后预测标签。
在通用的目标、场景、动作识别中,可能的测试样本类别也在训练集中,这称为close-set identification,因此预测标签可以表明性能,softmax loss可以直接解决分类问题。通过这种方式,标签预测(最后的全连接层)更像一个线性分类器,并且学习的深度特征更容易分离。
对于人脸识别任务,学习到的深度特征不仅是可分离的,还需要是可判别的。但是,由于对于预先收集所有可能的测试身份来训练是不切实际的,所以标签预测在CNNs中并不总是可行的。学习的深度特征必须是有区别性的,并且足以泛化,不通过标签预测,可以识别新的未见过的类别。