Paper Reading -- CBAM: Convolutional Block Attention Module
论文:CBAM: Convolutional Block Attention Module
1. Motivation
受SENet启发,作者在channel attention后面再加上一个spatial attention,既实现了通道注意力机制也实现了空间注意力机制。
2. Structure
-
CBAM
可以看到,相比SE Block,串行的添加了一个spatial attention,而csSENet是将channel attention和spatial attention做了一个并行。 - 具体结构
-
作者还做了一个改进,在AvgPool的基础上增加了MaxPool,实验结果表明,两种类型的池化的效果比单一的平均池化效果好。
CBAM和SE block一样,可以很方便的添加到ResBlock中
attention玩坏了,那接下来玩啥呢?