TIP2021| 视频超分辨率中的多级特征融合网络

介绍一篇视频超分辨率新论文 Multi-Stage Feature Fusion Network for Video Super-Resolution 。

论文链接:

https://ieeexplore.ieee.org/document/9351768/

看点

现有的VSR方法的主要问题是参考帧的特征与相邻帧的特征的融合是一步的,融合后的特征可能与原始LR中的视觉信息有较大的偏差。本文提出了一种端到端的多阶段特征融合网络,主要贡献为:

  1. 提出了一种新的VSR特征融合方法,该方法允许在主干网的不同阶段聚集空间和时间特征。
  2. 多尺度可变形对齐模块,用于在特征级别对齐帧。
方法

overview

下图显示了框架

,包括两个子网:时间对齐网络

和调制特征融合网络

接受

输入,估计相邻帧的对齐特征

,然后,将相邻帧的所有对齐特征连接为:

ψ共享给所有的SFT,逐步与

的多阶段特征融合,得到预测的HR帧

时间对齐网络(TAN)

给定LR帧

通过观察像素的时空邻域以非显示运动补偿的方式来时间对齐LR帧和相邻帧。该算法包括三个模块:特征提取模块、多尺度扩展变形(MDD)对齐模块和注意力模块。

特征提取模块:由一个卷积层和5个具有ReLU的残差块组成。利用共享的特征提取模块从

中提取特征

并将其输入MDD对齐模块。

MDD对齐模块:下图显示了MDD对齐模块的体系结构。输入的

串接并馈入3×3瓶颈层,以减少特征映射的通道。

先并行地堆叠两个3×3和5×5卷积核以提取多尺度特征。然后,将特征输入两个不同的扩张率为2和3的3×3的核中,有利于扩大感受野。

这种简单的设计可以有效地扩大接收野,其计算量远低于EDVR中的PCD对准模块。因此,MDRB有助于利用帧间像素的时间依赖性,即使在遭受复杂和大运动时,也能生成准确的偏移量参数

通过偏移量计算对齐特征:

注意力模块:由于遮挡、模糊区域和视差问题,容易产生一些未对齐,使得不同空间位置的对齐特征信息不相等,从而导致在某些特征上与参考帧存在较大差异。故设计了一个空间注意掩码M去权衡

其中,

测量

之间的像素级相似性,定义为:

其中,使用L1距离

去更加关注高置信度位置的特征。

调制特征融合网络

现有的SOTA方法通常首先通过级联将参考帧和对齐的相邻特征融合,然后将它们馈送到重构网络中以产生HR输出。然而,这种单阶段融合策略有两个局限性:

第一,对齐的相邻帧和参考帧在特征级有大量相似的模式,因此,简单地将它们串联在一起会给重建网络带来大量的冗余,导致昂贵的计算成本。

第二,融合只发生在初始层,随着深层网络层次的加深,来自相邻帧的互补时间信息将逐渐减弱。为了解决上述问题,本文提出了

级联一组插在分支主干不同深度的MRFBs。采用SRResNet的高级体系结构作为分支主干。

每个MRFB包含一个SFT层,该层以时间对齐特征ψ作为共享条件,从参考帧调制其输入特征映射。SFT层通过缩放和移位操作输出以ψ为条件的的仿射变换:

其中γ和β是缩放比例和位移的参数。将ψ送入不同权值的卷积层,可以得到变换参数γ和β。在每个MRFB中,在所有卷积层之后注入SFT层,在多阶段融合过程中,利用对齐的时间信息一致地增强了参考帧的视觉信息。

最后,我们通过一个反馈跳过连接将从最后一个MRFB学习到的高级特征反馈给第一个MRFB的输入层。这个反馈机制利用高层信息对底层特征进行细化,细化后的特征通过调制特征融合网络,便于学习从LR到HR图像空间的复杂非线性映射,无需额外的参数。

实验

实施细节

使用Vimeo-90K数据集的一个子集Septuplet来训练模型。使用Charbonnier惩罚函数作为损失,

包含16个MFRB。

消融实验

定量评估

不同对准模块的比较

同融合策略的比较,其中,DF将多帧的对齐特征串联起来,然后通过2d卷积进行一级融合。3DF直接利用三维卷积来提取时空特征并进行一级融合。

与SOTA的PSNR对比

END

备注:超分辨率

超分辨率交流群

图像视频超分辨率,可见光、红外、遥感超分辨率等技术,

若已为CV君其他账号好友请直接私信。

我爱计算机视觉

微信号:aicvml

QQ群:805388940

微博知乎:@我爱计算机视觉

投稿:amos@52cv.net

网站:www.52cv.net

在看,让更多人看到

(0)

相关推荐