目标检测:SSD的multibox_loss_layer和MineHardExamples的理解

SSD(single-shot multibox detector)源码学习笔记

SSD是Wei Liu等人去年提出来的一个object detection框架,在PascalVOC上mAP可以超过著名的Faster RCNN,同时速度可以做到实时,简直强无敌。之前用别人的MXNet代码跑过实验,最近需要改进一下算法,所以去翻了一下原作者用Caffe实现的代码

在看代码之前先简述一下SSD的做法:图片被送进网络之后先生成一系列feature map,传统一点的框架会在feature map(或者原图)上进行region proposal提取出可能有物体的部分然后进行分类,这一步可能非常费时,所以SSD就放弃了region proposal,而选择直接生成一系列defaul box(或者叫prior box),然后将这些default box回归到正确的位置上去,整个过程通过网络的一次前向传播就可以完成,非常方便,如下图所示。思路类似的算法还有YOLO,不过精度比SSD差了不少。

图1 
目标检测:SSD的multibox_loss_layer和MineHardExamples的理解

原作者的代码分散在很多地方,包括 include/caffe/ 目录下面的 annotated_data_layer.hpp 、 detection_evaluate_layer.hpp 、 detection_output_layer.hpp 、 multibox_loss_layer.hpp 、 prior_box_layer.hpp ,以及对应的 src/caffe/layers/ 目录下面的cpp和cu文件,另外还有 src/caffe/utlis/ 目录下面的 bbox_util.cpp 。从名字就可以看出来, annotated_data_layer 是提供数据的、 detection_evaluate_layer 是验证模型效果用的、 detection_output_layer 是输出检测结果用的、 multibox_loss_layer 是loss、 prior_box_layer 是计算prior bbox的。其中跟训练有关的是 annotated_data_layer 、 multibox_loss_layer 、 prior_box_layer ,我就重点看这三个。

annotated_data_layer

这部分代码没有太多好说的,就是把图片读出来(包含一些data augmentation),同时把每张图里的groundtruth bbox读出来传给下一层,没做什么特殊处理。

prior_box_layer

这一层完成的是给定一系列feature map后如何在上面生成prior box。SSD的做法很有意思,对于输入大小是 W×HW×H 的feature map,生成的prior box中心就是 W×HW×H 个,均匀分布在整张图上,像下图中演示的一样。在每个中心上,可以生成多个不同长宽比的prior box,如[1/3, 1/2, 1, 2, 3]。所以在一个feature map上可以生成的prior box总数是 W×H×length_of_aspect_ratioW×H×length_of_aspect_ratio ,对于比较大的feature map,如VGG的conv4_3,生成的prior box可以达到数千个。当然对于边界上的box,还要做一些处理保证其不超出图片范围,这都是细节了。

这里需要注意的是,虽然prior box的位置是在 W×HW×H 的格子上,但prior box的大小并不是跟格子一样大,而是人工指定的,原论文中随着feature map从底层到高层,prior box的大小在0.2到0.9之间均匀变化。

图2 
目标检测:SSD的multibox_loss_layer和MineHardExamples的理解

一开始看SSD的时候很困扰我的一点就是形状的匹配问题:SSD用卷积层做bbox的拟合,输出的不应该是feature map吗,怎么能正好输出4个坐标呢?这里的做法有点暴力,比如需要输出 W×H×length_of_aspect_ratio×4W×H×length_of_aspect_ratio×4 个坐标,就直接用 length_of_aspect_ratio×4length_of_aspect_ratio×4 个channel的卷积层做拟合,这样就得到 length_of_aspect_ratio×4length_of_aspect_ratio×4 个大小为 W×HW×H 的feature map,然后把feature map拉成一个长度为 W×H×length_of_aspect_ratio×4W×H×length_of_aspect_ratio×4 的向量,用SmoothL1之类的loss去拟合,效果还意外地不错……

multibox_loss_layer

FindMatches

我们已经在图上画出了prior box,同时也有了ground truth,那么下一步就是将prior box匹配到ground truth上,这是在 src/caffe/utlis/bbox_util.cpp 的 FindMatches 函数里完成的。值得注意的是这里不光是给每个groudtruth box找到了最匹配的prior box,而是给每个prior box都找到了匹配的groundtruth box(如果有的话),这样显然大大增大了正样本的数量。

MineHardExamples

给每个prior box找到匹配(包括物体和背景)之后,似乎可以定义一个损失函数,给每个prior box标记一个label,扔进去一通训练。但需要注意的是,任意一张图里负样本一定是比正样本多得多的,这种严重不平衡的数据会严重影响模型的性能,所以对prior box要有所选择。这一步是在 src/caffe/utlis/bbox_util.cpp 的 MineHardExamples 函数里完成的,我没细看= =。

EncodeLocPrediction && EncodeConfPrediction

因为我们对prior box是有选择的,所以数据的形状在这里已经被打乱了,没办法直接在后面连接一个loss(Caffe等框架需要每一层的输入是四维张量),所以需要我们把选出来的数据重新整理一下,这一步是在 src/caffe/utlis/bbox_util.cpp 的 EncodeLocPrediction 和 EncodeConfPrediction 两个函数里完成的。

训练

Wei Liu等人在这里的实现方法是在multibox_loss_layer里又实例化了两个loss_layer,前向传播的时候需要先经过前面三步,然后把数据手动喂给loss,反向传播的时候也需要手动把残差从loss取出来写回给前面的卷积层。