TMM 2019
 用深度学习来解决SISR问题(single image super resolution)的问题,从两个方面
- 高效的网络结构,efficient architectures;
- 有效的优化目标,OPTIMIZATION OBJECTIVES;
问题的定义
由LR  
     
      
       
       
         y 
        
       
      
        y 
       
      
    y恢复HR  
     
      
       
       
         x 
        
       
      
        x 
       
      
    x, 
     
      
       
       
         k 
        
       
      
        k 
       
      
    k表示卷积核, 
     
      
       
        
        
          ↓ 
         
        
          s 
         
        
       
      
        \downarrow_s 
       
      
    ↓s表示下采样操作, 
     
      
       
       
         n 
        
       
      
        n 
       
      
    n表示噪声;
 
 方法分为三类:
- Interpolation-based SISR methods
- Reconstruction-based SR methods
- Learning-based SISR methods
- 本综述主要针对深度学习的方法
 指标:
  
 数据集:
- 291 dataset
- ImageNets
- DIV2K dataset
efficient architectures
- benchmark:SRCNN,输入输出相同大小,输入LR的bicubic差值之后的结果,输出是HR,损失是MSE;
- baseline主要存在的问题:
 – 输入是LR经过差值之后得到的和HR一样尺寸的结果;
 – SRCNN网络过于简单,只是三层的卷积;
- FSRCNN使用反卷积来实现输入直接是LR;
- ESPCN不使用deconvolution,而是使用在channel维度进行扩展,之后再rearrange得到结果;
- VDSR使用了更深的网络结构,并且在训练的时候输入是不同rate的LR来达到一个模型实现多种scale的SR任务;
- DRCN也使用了更深的网络,最后的HR结果是所有中间层结果的加权和;
- SRResNet, DRRN使用了残差网络来实现;
- EDSR也使用了残差网络,但是去掉了BN操作,之后MDSR考虑不同scale之间的联系,所以训练的时候也是多种scale一起进行的;
- SRDenseNet使用的densenet,MemNet和RDN也是;
- SCN将采用稀疏编码和神经网络相结合(稀疏编码不知道是啥?);
- MSCN输入LR,得到多个HR输出,之后融合;
- DEGREE, LapSRN都使用了progressive methodology(resnet的中间层的特征输入到最后的层也能得到还行的效果,scale2的模型可以约束高scale的解空间);
- PixelSR使用PixelRNN来实现,LR作为条件,自回归的进行生成HR;
- DBPN使用神经网络来模拟interative backprojection的过程;
- DEGREE使用了边缘图,SFT-GAN使用了分割图,SRMD考虑了LR的不同退化;
- ……
OPTIMIZATION OBJECTIVES
- benchmark:SRCNN MSE loss



















