本文是论文《UNSUPERVISED THREE-DIMENSIONAL IMAGE REGISTRATION USING A CYCLE CONVOLUTIONAL NEURAL NETWORK》的阅读笔记。
文章提出了一个无监督的循环图像配准网络CIRNet,它由两个配准模块组成,两者具有相同的结构,并且共享参数。此外加入了循环一致性损失来为确保预测形变场的精度而提供额外的约束。文章在4D(3D+t)心脏CT数据集和MRI数据集上分别做了实验,验证了模型的有效性。简单来说就是将CycleGAN引入到了VoxelMorph模型中。
一、配准问题介绍
有监督的配准方法容易收到有监督信息中存在的误差和错误的影响,基于patch的配准方法训练时更快,但不能充分利用全局信息。
配准问题可以简化为一个优化问题,即最小化以下能量函数P:
P=S(M(ϕ),F)+Reg(ϕ)
其中,M和F分别表示浮动图像和固定图像,ϕ表示形变场,M(ϕ)表示根据形变场变形后的浮动图像,函数S(x,y)表示两幅图像之间的不相似性,Reg(ϕ)表示形变场的平滑正则化项。
二、网络结构
从下图可以看出,CIRNet由两个级联的配准模块R1,R2组成,两者具有相同的结构,并且共享参数,这样模型参数不会增加很多。

上图中,A和B分别表示浮动图像和固定图像,A(ϕ1)是根据形变场ϕ1变形后的浮动图像,A(ϕ1∘ϕ2)是先根据ϕ1变形再根据ϕ2变形后的浮动图像,Lcyc是循环一致性损失。配准模块R1是将浮动图像A配准到固定图像B,得并使得A(ϕ1)与B尽可能的像;配准模块R2是将变形后的浮动图像A(ϕ1)配准到固定图像A,得并使得A(ϕ1∘ϕ2)与A尽可能的像。
CIRNet是在VoxelMorph的基础上加以改进的,所以每个配准模块的结构和VoxelMorph相同,如下图。

三、损失函数
网络的损失有三个:LNCC、Lcyc、Lreg。
归一化的互相关LNCC,它用来衡量图像A(ϕ1)和图像B之间的相似性,它是通过大小为9×9×9的滑动窗口来计算的,当LNCC接近于0时,说明两张图像不相关,反之接近于1时说明两张图像正相关。
循环一致性损失Lcyc可以让图像A(ϕ1∘ϕ2)和图像A尽可能的相似。此外考虑到两幅图像还应该在灰度值分布上相同,所以在循环一致性损失中加入了L2正则项。其表达式如下:
Lcyc(A(ϕ1∘ϕ2),A)=N1i∈Ω∑(A(ϕ1∘ϕ2)(i)−A(i))2
其中,N是体素的数量,Ω表示图像中的所有体素。
形变场的平滑正则项损失Lreg定义如下:
Lreg(ϕ)=i∈Ω∑∇ϕ(i)2
综上,配准模块R1、R2的总损失为:
LR1(A,B)=−LR2(A(ϕ1),A)LNCC(A(ϕ1),B)+αLreg(ϕ1)+βLcyc(A(ϕ1∘ϕ2),A)=−LNCC(A(ϕ1∘ϕ2),A)+αLreg(ϕ2)+βLcyc(A(ϕ1∘ϕ2),A)
其中α、β是平衡因子。
四、实验
第一个数据集是ACDC数据集,是一个4D的心脏电影MRI数据集,第二个数据是心脏的CTA图像。训练时使用Adam作为优化器,学习率在前100个epoch为0.0001,没50个epoch线性减少。batch size在第一个数据集为8,第二个数据集为1。α=1,β=5。使用的baseline是传统的B样条非刚性配准算法Elastix和基于学习的配准模型VoxelMorph,评价指标选用的是DSC(Dice相似性系数)。
下图是各个配准方法的对比结果。

下图是评价指标和运行时间的对比,可以发现CIRNet取得了最好的效果。
