文献阅读 Learning Meta Face Recognition in Unseen Domains 2020 CVPR
<初入该领域希望能和大家多交流>
关键字:人脸识别、元学习、泛化模型
应用场景:大部分现有模型预训练效果良好,实际应用中多模型是未见过的场景和身份(目标域),即源域与目标域(身份信息、人种信息、面部变化等)没有任何交集,此时预训练模型性能差强人意。
主要工作:构建并训练一个泛化能力强的模型使得其在目标域上的性能优异且不用改变模型参数
主要思路:在源域训练模型时:把源域划分成元训练+元测试对模型进行训练和测试并不断完善;
算法描述:
在损失函数设计上:把元训练时涉及三个损失函数 硬对注意力损失+软分类损失+域对齐损失
上式为硬对注意力损失,
其中第一项指的是硬正对 (hard positive pairs)即训练域和测试域中同一标签的样本但相似度低于某个阈值
第二项为负样本对损失(negative pairs)即两个样本(元训练、元测试)标签不同,但其相似度却高于某个阈值
综合:同类样本(正对)的距离要尽可能小,同时不同类样本(负对)的距离要尽可能的大,即为公式1
但应注意损失只考虑了特殊样本对,容易得到局部优化结果,所以还要加上其他的损失函数
2式为软分类损失:
文中这一部分描述的比较含糊,可能在他们之前的文章中有描述 ,CE具体含义没有讲哦,等搞明白后再添加
3式域对齐损失
c_j 第j个域中所有样本对均值(个域中心)
c_mtr 元训练域中所有域样本对均值的均值(全域中心)
L_da 对齐损失,个人理解该式意思是让个域的中心尽可能接近全域中心
因为测试域中只有一个域所以测试时损失函数没有这一项
数据描述:
提出两种数据集进行验证(创新点之一:设计数据)
GFR-R 跨人种数据设计(RFW北邮邓伟洪老师的数据集)三个人种作为源域一个人种作为目标域
GFR-V 人脸变化:RFW作为源域,其他数据集(年龄、姿势、遮挡、光照等变化)作为目标域
实验结果采用不同容错率下的验证准确度(VR),及rank-1识别率,AUC及ACC
其中表4中的rank-1和ACC居然不一样,也希望能有朋友解释下,因为我认为rank-1就是我们平时所计算的准确度了吧,
表3表明跨人种人脸识别还真是有待解决的难题