《Dense Residual Network for Retinal Vessel Segmentation》
数据集:IOSTAR,RC-SLO,都要使用Scanning Laser Ophthalmoscopy(SLO)技术采集。
深度密集残差网络——DRNet
一、介绍
结合了(U-Net,ResNet,DenseNet)的优点
数据集过少——引入残差结构学习更过复杂的特征
跳层结构——解决空间信息丢失
密集连接——最大化的重新利用特征图
二、分割算法
2.1、Double Residual Block(DRB)
包含两个残差单元,所以称为Double Residual Block(DBR)
相比于现有的消除过拟合的方法,本文充分利用有限的注释数据来训练更深的网络来提取更复杂的特征图。
但是如果仅仅是增加网络的层数可能会导致梯度消失从而妨碍训练(解决方法: 构建一个残差学习块(batch normalization,Relu activation,3×3 convolutional layer, DropBlock))
2.2、DRB特征图的自适应聚合( Zhen, M.; Wang, J.; Zhou, L.; Fang, T.; and Quan, L. 2019.Learning fully dense neural networks for image semantic segmentation. AAAI Conference on Artificial Intelligence.)
FCN和U-Net是通过直接相加或连接操作来重新利用之前的特征图。
本文使用自适应聚合的结构来密集连接前面的DRB生成的特征图。
由于输入特征图的分辨率和特征通道数可能不同,所以使用一个压缩层(DropBlock,1×1卷积),除了一个已经被压缩过的直接连接(黑色箭头)。
为了让特征图分辨率相同,使用最大池化操作来下采样,使用转置卷积来上采样。
2.3、DropBlock( G. Ghiasi, T.-Y. Lin, and Q. V. Le. DropBlock: A regularization method for convolutional networks. In Neural Information Processing Systems, 2018.)
由于**单元之间的相关性,Drop往往使用在全连接层而不是卷积层,然而本文使用的全卷积网络结构,甚至没有dropout,输入的语义信息任然可以被传送到后面的层,导致网络出现过拟合。(解决方法: DropBlock,与dropout不同的是,DropBlock随机丢弃连续的区域而不是随机丢弃独立的单元,这个特点使得DropBlock更好地丢弃结构化的语义信息,防止过拟合。)