一张手绘图带你搞懂空间注意力、通道注意力、local注意力及生成过程

soft attention(包括空间注意力、通道注意力)软注意学习的目的是选择细粒度的重要像素点,它们是pixel级。
hard attention( local 注意力) 硬注意学习则致力于搜索粗糙的潜在判别区域,它们是region级。
他们在功能上有很大的互补性。他们的结合使用可以提高模型的性能

下面讲解空间注意力、通道注意力、local 注意力的生成

一张手绘图带你搞懂空间注意力、通道注意力、local注意力及生成过程

空间注意力、通道注意力可行性解释

64个通道的采样图(如可生成见我博客
一张手绘图带你搞懂空间注意力、通道注意力、local注意力及生成过程
通道注意力:
就是对于每个channel赋予不同的权重,比如1,2处马的形状比较明显,所以理所当然,对1,2通道的权重比较大,3,4处权重小。

空间注意力:
空间注意力是对64个通道进行mean的一个操作,得到一个(w x h)的权重,mean的操作就学到了所有通道的整体分布,而抛弃了奇异的通道。比如说1,2的图可以很好的描绘出马的形状,而3,4就不行(但本质上它也是要显示出马的形状),但是通过mean后,得到的w x h权值共享后,给了3,4一定的权值描述,相当于给3,4一定的注意力,这样它们也可以描绘出马的形状。

本人知识水平有限,要是错误的话,欢迎指正,感谢!

碰巧,如果你看到了这篇文章,并且觉得有用的话 那就给个三连吧!

一张手绘图带你搞懂空间注意力、通道注意力、local注意力及生成过程