【论文笔记】(二)CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning
论文名称:
CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays
with Deep Learning
发表期刊:
arXiv,2017
作者:
Andrew Y. Ng
主要工作:
- 提出121层的卷积神经网络CheXNet用于肺炎检测
- 可视化,绘制肺炎的热图
- 将模型微调,用于其他11种胸部疾病的检测
数据:
ChestX-ray14公开数据集,包含30805个病人在内的112120张前向胸部X光图像,分为包括肺炎在内的14类胸部疾病。将肺炎图像视为正类,其他十三类视为负类。
数据划分:
训练集:28744个病人(93.3%),98637张图像;
验证集:1672个病人(5.4%),6351张图像;
测试集:389个病人(1.3%),420张图像
预处理
1. 所有图片下采样为224×224;
2. 使用ImageNet训练集上的均值和方差进行标准化(normalize based on the mean and standard deviation of images in the ImageNet training set. )
3. 数据增强:随机水平翻转
与放射科医生对比
四个放射科医生标注测试集,来源于斯坦福大学,工作经验分别为4,7,25和28年
模型架构和训练:
模型架构:
121层的DenseNet,使用ImageNet上的预训练模型
损失函数
加权二分类交叉熵
优化算法
Adam
性能对比:
这一部分是本文比较有意思的一个地方。
在测试集上,我们共获取了五个label(4个放射科医生和CheXNet)。
在衡量每一个label的性能的时候,我们将其他4个label作为groundtruth,使用F1值作为度量值。
这样的做法,其实就是在度量每一个label与其他四个label的匹配程度。如果某一个label的F1值较低,那么就是他和其他四个label的结果出入较大,由此判定这个模型或者专家的准确度较低。
最后,作者通过统计检验得出结论,CheXNet的性能显著优于放射科医生
实验的局限性:
- 实验中只使用了正向的X光,然而,研究表明,如果使用背面的X光图片能够至少增加15%的准确度。因此,本文中的结果是相对保守的
- 文章里没有第二点 =。=
- 实验中都没有使用病人的病史资料,这也是对诊断有帮助的
扩展实验:
改变网络结构,将最后一个全连接层的输出改变为14,来实现14中胸部疾病的分类。实验结果表明,该网络的性能非常之好
可视化:
作者为了更好地解释神经网络,将测试图片的一部分进行了可视化。通过可视化我们能够获取一张与原始图像一样大小的heatmap,heatmap上值大的像素,表明对结果的贡献越大。具体关于如何进行可视化,可参见Learning Deep Features for Discriminative Localization