Collaborative Attention Network for Person Re-identification

       今天推一篇我们组内image-based reid的工作。《Collaborative Attention Network for Person Re-identification》,目前ECCV on review,arxiv:https://arxiv.org/abs/1911.13008

       在行人重新识别(Re-ID)问题中,使用global和local feature来增强model性能是一种主流的方法,比如大家公认的MGN,就是通过采用切片和copy、cat等操作得到一个concat的feature,但我们认为由于定义了规则和策略局部切片,因此仍无法充分利用部分模式。所以我们提出了一种协作注意网络(CAN)学习结合邻域的局部特征,可以进一步改善最终Re-ID的特征表示。在几个公开数据集上的实验结果证明,我们提出的方法优于许多现有的SOTA。

模型结构大致是这样的:

                       Collaborative Attention Network for Person Re-identification

   我们把backbone出来的global feature copy四份,分1,3,5,7切分,然后邻域local feature间concat然后经过maxpooling,最后把所有的global和local全部送loss。

大概出来在三大数据集上的精度这样:

        Collaborative Attention Network for Person Re-identification

   可以看到,基本比现有很多SOTA的paper精度要高,当然我们也用了很多训练中的Trick,这得感谢罗浩大神的Strong baseline。

对于结构有感兴趣的,或者觉得哪里可以改进的欢迎跟我讨论。