An Entropy-based Pruning Method for CNN Compression

这篇文章也是网络剪枝的早期文章,其算法是filter级别的裁剪。文章认为weights的大小不能决定一个filter的重要性,应该用熵来决定:

An Entropy-based Pruning Method for CNN Compression

而对于这个概率pi,其得到方法如下:

An Entropy-based Pruning Method for CNN Compression

简单来说,就是用全局平均池化来转化一个layer的output,得到一个向量。用验证集的一些图片进入网络,就可以得到一个矩阵,这个filter的熵就可以用这个矩阵计算出来。

实验上,文章针对VGG16和ResNet18采用了两个不同的裁剪策略。对于VGG16:

  • 裁剪前十层的layer
  • 用最大平均池化代替全连接层

对于ResNet-50的裁剪方法:

An Entropy-based Pruning Method for CNN Compression

 

 从实验结果上来说,压缩倍数和精度损失都能接受。后续的改进我觉得可以以熵为基础,加点其他东西进去。