《基于深度学习的胃癌病理图像分类方法》论文记录

摘要
本文采用了GoogLeNet和AlexNet对胃癌病理进行诊断;针对医学病理图像的特点,对GoogLeNet进行了优化;采用将不同结构和不同深度的网络模型进行融合,综合两种不同的网络模型提取到的不同特征,来提高胃癌诊断的准确率。
1.AlexNet和GoogLeNet模型
《基于深度学习的胃癌病理图像分类方法》论文记录
AlexNet要求输入大小为227 * 227 * 3,本文使用的胃癌病理图像就是为三通道的RGB图像,维度符合模型要求,将病理图像调整为227 * 227 * 3大小的图像送入网络中。
《基于深度学习的胃癌病理图像分类方法》论文记录
GoogLeNet设计一种叫做Inception的模块化网络结构,将稀疏矩阵聚类为比较密集的子矩阵,极大地降低了参数量,提高了计算效率。Inception是一种稀疏性的结构,它采用3种不同大小的卷积核学习图像的特征。由于采用了不同大小的卷积核,Inception既能捕捉到小范围内的相关性单元特征,也能捕捉到距离较远的相关性特征。同时,由于较大的卷积核会带来参数量增加的问题, Iception 在卷积层前增加了 1*1 的卷积核对数据进行降维,从而提高了计算效率。
《基于深度学习的胃癌病理图像分类方法》论文记录
2.数据集和预处理
本文使用的胃癌病理图像来自于 2017 中国大数据人工智能创新创业大赛,该病理图像数据采用的是已经非常成熟的 HE制片技术,放大倍数为20倍,图像为RGB三通道位图图片,并经过了标准化处理。样本分为有癌症和无癌症两类,每张癌症样本图像对应一张label图片,标注出了图像上典型的癌症区域,但并非全部癌症区域。胃癌病理图像和对应癌巢区域的label图像如图6所示.《基于深度学习的胃癌病理图像分类方法》论文记录
在数据预处理中,考虑到癌症样本的label并没有包括样本中的全部癌症区域,因此首先将癌症图像与对应的label文件进行了叠加处理,筛选出了病理图像上的癌巢部分,以排除未标注区域可能产生的干扰,处理后的病理图像如下图所示。
《基于深度学习的胃癌病理图像分类方法》论文记录
将一张病理图像按照128 * 128像素尺寸分割为更小的图像,并按照一定的癌症区域占比对子图像进行筛选为保证数据对于模型训练的有效性,实验中取癌巢区域占比在50%以上的图像作为有效数据。实验通过这个方法大大增加了样本的容量,有效的解决了数据量不足的问题。分割的子图像如下图所示。
《基于深度学习的胃癌病理图像分类方法》论文记录
3.GoogLeNet模型优化
由于网络层次较深,模型在提取更深层次特征的同时,感受野的扩大反而会带来特征消失的问题,从而对识别精度造成影响。因此针对实验所使用的病理图像的特点,对GoogLeNet的结构进行优化。
GoogLeNet是一个模块化的深度学习网络,它的每个 Iception 模块具有相同的结构。从 GoogLeNet的训练表现来看,网络在第6个Iception 后产生的中间结果与最后结果的准确率几乎相同。针对这一现象,实验以 Iception 为单位对网络结构进行优化。经过多次实验,最终确定网络在第 7 个 Iception 后的输出便达到了最优水平。因此,实验保留了
GoogLeNet 的前 7 个 Iception 结构,而在第 7 个 Iception 模块后直接使用 FCN 对特征图进行分类输出。
《基于深度学习的胃癌病理图像分类方法》论文记录
4.AlexNet和GoogLeNet融合
实验提出将AlexNet和GoogLeNet模型进行融合,综合两者所提取的不同的病理特征,以求在对胃癌病理图像的诊断中取得更好的实验结果。本实验对不同的模型采用加权的方法,通过多次实验寻找不同模型的最优权重,使融合的网络模型达到最好的诊断效果。
AlexNe 网络有 8 层结构,优化后的 GoogLeNet 网络有18层结构,两种网络结构之间的主要差异在于卷积层的操作。实验将两种网络结合的重点放在卷积层的融合使用上。融合的模型使用同一个训练集进行训练,因此需要对输入和输出进行标准化处理。实验通过对AlexNet 网络的卷积核的大小进行调整来修改其输入输出标准,将网络的输入统一为224 * 224 * 3的三通道图像,卷积层的特征图输出统一为7 * 7大小。数据分别经过AlexNe和 GoogLeNet的卷积层得到两种不同的特征图像,将得到的两种不同特征图按照不同的权值进行分配,通过尝试不同的权值,使网络达到最好的诊断效果。该网络算法的结构如图9所示。
《基于深度学习的胃癌病理图像分类方法》论文记录
经过多次实验发现,将两种不同的网络融合后,对胃癌病理图像诊断的准确率得到了较为明显的提高。当 w1与w2之比为 1∶3 时,融合的网络模型取得了最佳的诊断结果,证明实验对 NIN 应用的深度进行拓展的思想是有效的。实验通过30 次迭代训练得到最终的模型.对于实验提出的融合模型,由图10可以看到,其在训练后期已经收敛到了稳定值,对分割处理后的病理切片诊断具有极高的精度。
《基于深度学习的胃癌病理图像分类方法》论文记录
5.实验结果与分析
实验一共设置了AlexNet和GoogLeNet和两者的融合模型,一共三组网络模型。通过多次实验找到模型融合的最优点后,对比三种模型在训练过程中的表现,最后通过测试数据验证模型的泛化能力,对实验结果进行分析和总结。
《基于深度学习的胃癌病理图像分类方法》论文记录
《基于深度学习的胃癌病理图像分类方法》论文记录
由表4可见,在对胃癌病理图像的诊断中,3种深度学习模型均取得了很高的诊断准确率。本实验提出的融合网络模型的效果更佳,在测试集上的灵敏度相对于AlexNet和优化的GoogLeNet模型分别提高了1.4%和0.95%。灵敏度指标意义重大,灵敏度的提升意味着漏诊率的下降,而癌症的治疗贵在早期发现,少漏诊即及时确诊对于癌症患者来说争取了宝贵的早期治疗时间,
因此灵敏度的提升对于实际应用有着非常重要的意义。表4中,本实验特异度指标相比AlexNet和优化的GoogLeNet有0.12%和0.24%的劣势。由于灵敏度和特异度两个参数存在相互制约的关系,因此不难理解为何融合模型的特异度会稍低于其他两种网络模型。特异度与误诊率 相 关,特异度越高意味着误诊越少,虽然本文方法的特异度略有下降,但相较于灵敏度的提升是完全可以接受的。同时由于癌症对人类的健康和生命有着巨大的威胁,诊断的最主要目的是尽可能多地找出癌症患者,做到 早 发 现 早 治 疗,意义非常重大,因此灵敏度相比特异度是更为关键 的指标。虽然 AlexNet和GoogLeNet两种模型在对胃癌的诊断上已经取得了较好的效果,而融合模型相比两者在灵敏度上获得了明显的提高,相应地在特异度上只付出了很小的代价,说明融合模型在对胃癌的诊断上比另外两种模型更具优势。实验还发现3种不同模型在非癌症图像上的准确率均明显高于在癌症图像上的准确率,分析认为这一差异是实验数据因手工标注产生的误差造成的,说明实验使用的方法依赖于医学指导,同时对训练数据的精确性有着较高的要求,这将是后续的研究中需要解决的问题。
从诊断结果上看,本 文 提 出 的 融 合 网 络 对病理切片的诊断准确率有所提高,由此可以说明,融合网络模型诊断的准确率高于其他网络,尤其对癌症组织的病理特征更为敏感。同时网络具有良好的泛化能力,说 明 实 验 提 出 的融合网络模型更有效地提取到了胃癌病理特征。