EDSR阅读笔记
原论文地址:https://arxiv.org/abs/1707.02921
- 从Related Work中发现,不是所有的SR都是先interp再传入网络的,也有先传入网络,再upsampling(反卷积)为HR的(FSRCNN),后一种可以减少神经网络参数,因为传入的图像像素点数量较少,但无法解决不同scale的问题,即模型训练在什么scale上,就只能应用在什么scale上,而EDSR论文提出的MDSR解决了这个问题,且其single-scale的EDSR模型同样采取先传入网络再upsampling的方法
- 相比较ResSR,EDSR取消了BN层和最后的ReLU:
- 在该论文中提出的baseline model由于并没有采取太多的filter而没有使用residual scaling, 而在其final模型中,每层有256个channel,为了使training 更加stable,在残差与identity相加前,将残差乘以0.1,至于为什么乘以0.1可以使training更加stable,从论文中的链接找到了提出这个观点的论文:https://arxiv.org/abs/1602.07261
- 在single-scale的模型中,使用2x的预训练模型参数来init4x的预训练模型参数使train更快收敛
- 采取L1Loss
- train的时候采用了减去平均RGB值的方法预处理
- muti和single的训练方式有所不同: