Towards Alzheimer’s Disease Classification through Transfer Learning
论文链接:https://arxiv.org/abs/1711.11117
code:https://github.com/marciahon29/Ryerson_MRP
摘要:
利用迁移学习解决医学图像数据较少的问题。VGG和inception是通过预训练的权重进行初始化,然后在全链接成只使用少量的MRI影像进行retrain。我们通过熵来选择信息量较大的图像进行训练。
数据集:OASIS MRI dataset,能够10倍较少训练时间并取得同等或者更优效果。
引言:
传统方法存在的问题:
需要大量标注数据,但是标注数据需要专业人员进行标注,成本很高,而且因为一些伦理原因,交叉机构之间要保护数据。
在大量数据集情况下需要很大的计算资源
需要大量调参,每个局部优化都可能引起过拟合或者欠拟合的问题
解决方法:
通过迁移学习的方法在深度网络中进行fine-tuning。比如已经在ImageNet上预训练好的CNN网络,可以用小数据集只需在全连接层进行微调即可。
迁移学习已经被证明在交叉领域具有很好的鲁棒性,比如在自然图像中预训练的模型可以被用在医疗图像中。
本文是利用VGG16 和 inception两种网络,结合迁移学习方法用在AD诊断中。实验表明,只要正确的选择训练集,这两种在imagenet上预训练的网络可以在医疗影像中发挥很好的性能。
选择训练集方法:通图像熵信息选择最有信息量的数据。
相关工作:
autoencoder + cnn ——》 3DCNN(Predicting alzheimer’s disease: a neu-
roimaging study with 3d convolutional neural networks )
迁移学习在医疗影像中的应用
Convolutional neural networks for medical image analysis: Full training or fine tuning?
Standard plane localization in fetal ultrasound via domain transferred deep neural networks
Fine-tuned convolutional neural nets for cardiac mri acquisition plane recognition
方法论:
A:Convolutional Neural Networks and Transfer Learning
通过大数据集预训练权重,然后迁移到小数据集上进行fine-tuning,只在最后一层全连接层用新数据集进行retrain。
VGG16:One of the main reasons that VGG16 won the competition, is that it is one of the first architectures to explore network depth by pushing to 16-19 layers and using very small (3x3) convolution filters.
inception: 认识到可以通过改变卷积层的连接方式学习非线性函数。另外废弃全连接层,改用全局平均池化层+softmax层进行分类,因此减少了参数并减少了过拟合。
B: Most informative training data selection
计算每个切片的图片熵。熵提供了切片变化的量度,可以通过热力直方图选择熵最大的图像。
实验结果:
神经网络基于keras
图像选择用matlab实现
A. Dataset
预训练的模型下载地址 :https://github.com/flyyufelix/cnn_finetune
数据集:Open Access Series of Imaging Studies (OASIS) http://www.oasisbrains.org/
OASIS分为cross-sectional 横截面 and longitudinal 纵向两个数据集
选择横截面数据集,随机选择200个,100个AD 100个HC,判断标注是按照Clinical Dementia Rating (CRD) ,0:HC,大于 0的是 AD.
最终选择的数据集:我们使用了基于熵的排序机制,从每个3D扫描的轴向平面中挑选出最有信息的32张图像,所以最终一共32*200=6400 张 structural MRI images图像,3200AD 3200HC。
图像大小: 150X150 for VGG16, and 299X299 for Inception V4.
B. Accuracy results
5折交叉验证方法,8:2划分训练集个测试集。
超参设置:For VGG16, 100 epochs were used with a batch size of 40, RMSProp with adaptive learning rate.
For Inception V4, 100 epochs with a batch size of 8 was used, stochastic gradient descent optimization with a learning rate of 0.0001
得益于迁移学习以及智能选择更有信息量的图像。