论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

CVPR 2017 的 MIT 论文《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

其项目网页:Network Dissection

 

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

【所实现的】

直接剖析其他任务中训练好的 CNN 模型,解释其神经元对应的语义概念

 

【方法概要】

  • (1)构建一个包括多层次图片(从简单颜色纹理到复杂场景物体)并在像素级别人工标注了语义的 Broden 数据集;

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

  • (2)把Broden数据集输入待测试的 CNN 模型,收集 CNN 模型神经元对语义概念的**响应;
  • (3)测量、量化神经元与语义概念的对齐(映射)。
  •  

【局限性】

仅能较好解释 CNN 模型中对 Broden 数据集中有定义的语义概念的响应。

 

【提出并分析了三个问题】

(1)什么是神经网络的可解释表示,其要素如何检测、量化?

测量、量化方法见上;提出了一个量化的单位 IoU(intersection over union),计算公式为((像素级语义划分范围)∩(神经元**区域))/(二者的并集)

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

(2)可解释的隐藏神经元是否与特征空间构成特定的映射?

一个语义概念可能被多个神经元检测到,一个神经元也可能检测多个语义。

其中只看一个神经元中 IoU 最高的语义。

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

(3)神经网络训练中什么因素会影响可解释的程度?

  • 可解释的度量:CNN(某层)中独特检测器(Unique detector)的数量(神经元最对应语义的 IoU > 0.04时为独特检测器)
  • 网络深度:CNN 中越往后层比前面的层可解释性更高,同时可解释的语义等级也更高(浅层可检测颜色、纹理,深层可检测物体、场景);跨网络结构比较时,网络结构越深,最后层可解释性越高。

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

  • 图片角度:保持分类能力不变下旋转图片,旋转角度越大,CNN 可解释性越低。(也说明了分类辨别力与可解释性相互独立)

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

  • 训练用的数据集:数据集内容越丰富,训练出的 CNN 可解释性越高。

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

  • 训练参数:迭代次数大程度上与可解释性成正比

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

Fine Tuning 可以提高神经元可解释性

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

有监督 > 自监督

论文笔记:《Network Dissection: Quantifying Interpretability of Deep Visual Representations》

 

欢迎讨论