本文是关于论文《Probabilistic Multilayer Regularization Network for Unsupervised 3D Brain Image Registration》的阅读笔记。
文章提出了一个无监督的3D脑部图像配准网络,用来捕获 fixed image 和 moving image 之间特征级(feature-level)的信息。网络包括分别对 fixed image 和 moving image 进行处理的两个深度CNN,以及一个对以上两个CNN处理结果进行对齐的特征级概率网络。这两种网络实现了不同级别的特征提取。
传统的基于模型(深度学习)的配准网络都忽视了两张输入图像之间的特征级的转换关系,CNN的隐藏层学习到的特征对于隐含变量(latent variable)来说是透明的,所以在本文中首先使用了两个CNN,一个CNN用来 fixed image 中提取特征,另一个从 moving image 中提取特征。此外,还用一个概率网络在两个CNN对应的隐藏层之间捕获它们的转换关系。此外还在CNN的多个层中嵌入了正则项,以在不同层产生特征级的隐含变量。最后,通过把在所有层中预测得到的特正级隐含变量结合,得到最终的用于配准的隐含变量。

首先使用两个CNN产生两组具有不同分辨率的特征图集合,然后用一个特征级的概率推断模型来估计特征级的隐含变量,该隐含变量表示的是在两个CNN相同层的特征图之间的转换关系。然后把每一层产生的特征图扩大到相同的大小,将它们加起来产生最终的隐含变量 z。然后把 moving image x 和隐含变量 z 输入到空间转换网络(STN)中产生最终的配准后的图像。
(Fxi,Fyi) 表示两个CNN第 i 层产生的特征图,Fzi 表示概率模型产生的第 i 层的隐含变量, 它实际是让 Fxi 对齐到 Fyi 的 STN 的参数,或者说形变场。在已知 Fxi,Fyi 的情况下,可以通过最大化后验概率 p(Fzi∣Fxi;Fyi) 来得到最优的 Fzi。具体的,引入了一个近似后验概率 qψ(Fzi∣Fxi;Fyi) ,然后最小化 p(Fzi∣Fxi;Fyi) 和 qψ(Fzi∣Fxi;Fyi) 之间的KL散度来使得两个分布尽可能的相似,该过程可以用下式表示:
=ψminKL[qψ(Fzi∣Fxi;Fyi)∥p(Fzi∣Fxi;Fyi)]ψminKL[qψ(Fzi∣Fxi;Fyi)∥p(Fzi)]−Eqlogp(Fyi∣Fzi;Fxi)
其中 qψ(Fzi∣Fxi;Fyi) 来自于多元正态分布:
qψ(Fzi∣Fxi;Fyi)=N(z;μFzi∣Fxi;Fyi,σFzi∣Fxi,Fyi2)
其中 μFzi∣Fxi;Fyi 是分布的均值,σFzi∣Fxi,Fyi2 是分布的方差,它们是通过概率模型得到的(如图1(b))。
p(Fzi) 和 p(Fzi∣Fxi;Fyi) 符合以下多元正态分布:
p(Fzi)=N(Fzi;0,σFzi2)
p(Fyi∣Fzi;Fxi)=N(Fyi;Fxi∘ϕFzi,σFi2)
其中 σFzi2 是分布的方差, Fxi∘ϕFzi 是噪音,σFi2 是噪音项的方差。

在CNN浅层的特征图具有较高的分辨率并且具有丰富的细节信息,而CNN深层的特征图具有较低的分辨率并且具有高层次的语义信息。高层语义信息可以帮助全局配准,但是忽略了很多细节。而细节信息则是捕获了局部的配准信息。所以将浅层到深层的特征图 Fzi 混合得到最终的隐含变量 z,然后输入到 STN 中,对 moving image 进行变形。
模型总的损失为:
Dtotal=L(z;x,y)+i=1∑nwiL(Fzi;Fxi,Fyi)
其中,L(z;x,y) 表示从输入图像 x 和 y 到输出的配准后的图像 z 的KL散度,L(Fzi;Fxi,Fyi) 是从输入特征图 Fxi 和 Fyi 到输出配准转换变量 Fzi 的KL散度。n 是CNN的层数,wi 是第 i 层损失的权重。通常设置n=4,wi=1。基于KL散度的损失为:
L(Z;X,Y)=2σZ∣X;Y21∥Y−X∘ϕZ∥2+21[tr(σZ∣X;Y2)+∥∥μZ∣X;Y∥∥−logdet(σZ∣X;Y2)]
其中第一项是使得配准后的图像 X∘ϕZ 与图像 Y 相似的重建损失,第二项是公式1第一项的近似,它可以让 qψ(Z∣X;Y) 与 p(Z) 相似;μZ∣X;Y 和 σZ∣X;Y 分别是分布 qψ(Z∣X;Y) 的均值和标准差。
初始学习率为 1e−4,并且周期性的减少(乘以0.1),一共有100个epoch,使用Adam优化器,优化器的第一个动量为0.9,第二个动量为0.999,衰减权重为0.0001。
下图是实验的结果对比图。
