跳转至

Temporal Inconsistency Guidance for Super-resolution Video Quality Assessment

会议: AAAI 2026
arXiv: 2412.18933
代码: Lighting-YXLI/TIG-SVQA-main
领域: 图像复原
关键词: 视频质量评估, 超分辨率, 时间不一致性, Transformer, 视觉工作记忆

一句话总结

提出 TIG-SVQA 框架,首次将时间不一致性(temporal inconsistency)作为显式引导信号融入超分辨率视频质量评估,设计了不一致性高亮空间模块(IHSM)和不一致性引导时间模块(IGTM),在 SFD、MFD 和 Combined-VSR 三个数据集上 SRCC 分别达到 0.950、0.942、0.939,全面超越现有 IQA/VQA 方法。

背景与动机

超分辨率视频的独特失真

随着超分辨率(SR)技术的快速发展,SR 视频引入了一类独特的失真:幻觉纹理(hallucinated textures)和时间闪烁(temporal flickering),这些失真与传统压缩、用户生成退化有本质区别。现有 VQA 方法主要针对传统失真设计,对 SR 视频中的时间不一致性建模不足,亟需专门的评估方法。

时间不一致性的关键性

时间不一致性指连续帧之间动态场景中的不规则变化(如运动伪影、突变过渡、非自然视觉变化)。现有 VQA 方法通过帧差分、光流分析、3D-CNN 等技术建模时间关系,但从未显式量化时间不一致性水平或考察其与人类感知的相关性。更重要的是,SR 增强过程会放大时间不一致性,使这一问题在 SR-VQA 中尤为突出。

运动 vs 时间不一致性

作者通过实证分析发现,运动复杂度(motion complexity)与感知质量的相关性很弱(因为场景内容会掩盖时间伪影),而运动信息的差异——即时间不一致性——与感知质量高度相关。在 Combined-VSR 数据集上,运动信号的 SRCC/PLCC 为 0.885/0.913,而时间不一致性达到 0.939/0.942。这一发现为将时间不一致性作为 SR-VQA 引导信号提供了充分依据。

核心问题

如何设计一种 SR 视频质量评估方法,能够显式利用时间不一致性信息来引导空间特征提取和时间特征聚合,从而更好地对齐人类感知偏好?

方法详解

整体框架

TIG-SVQA 由三个核心部分组成:(1) 时间不一致性量化,(2) 不一致性高亮空间模块 IHSM,(3) 不一致性引导时间模块 IGTM。

时间不一致性量化

给定 SR 视频 \(V_D\) 和参考视频 \(V_R\),时间不一致性信息通过光流差异计算:

\[V_I = \|OF(V_R) - OF(V_D)\|_2\]

其中 \(OF(\cdot)\) 为光流计算。将 \(V_I\) 解耦为粗粒度(低通滤波,捕获大尺度运动变化)和细粒度(高通滤波,捕获细微不一致)两个分量:

\[V_I^C = \mathcal{F}^{-1}(H_L \cdot \mathcal{F}(V_I)), \quad V_I^F = \mathcal{F}^{-1}((1-H_L) \cdot \mathcal{F}(V_I))\]

归一化后加权到 SR 视频上突出不一致区域:\(\hat{V_D}^{C/F} = \text{Norm}(V_I^{C/F}) \times V_D + V_D\)

不一致性高亮空间模块(IHSM)

  • 粗粒度分支:使用改进的 Swin Transformer,在第三阶段引入 Deformable Window Super-Attention (DW-SA) 块,通过可学习偏移调整窗口位置并用亚像素卷积上采样窗口内特征,增强对大尺度不一致区域的建模能力。
  • 细粒度分支:使用 ResNet 捕获局部细微失真。
  • 两路特征拼接为最终空间特征 \(F_S \in \mathbb{R}^{F \times 5632}\)

不一致性引导时间模块(IGTM)

第一阶段:一致性感知融合(Consistency-aware Fusion)

受视觉工作记忆(VWM)容量有限的心理学发现启发(人类视觉工作记忆容量约 3-7 个对象),设计了视觉记忆容量块(Visual Memory Capacity Block),遵循两个原则:

  1. 记忆阈值在一定范围内动态分配
  2. 时间不一致性越高,记忆阈值越低

时间不一致性复杂度结合光流幅值标准差和方向一致性标准差计算(\(\alpha = 0.5\) 平衡两者),自适应阈值 \(T_D^i = \tau - \eta \times \frac{C_I^i - \min(C_I)}{\max(C_I) - \min(C_I)}\)\(\tau=5, \eta=4\)),将时间序列按累计复杂度分段聚合。

分段后通过图注意力网络(GAT)建模时间关系:节点间通过注意力系数 \(\alpha_{ij} = \text{softmax}(e_{ij})\) 加权聚合邻居信息,最后用 GRU 编码时序特征。

第二阶段:信息过滤(Informative Filtering)

通过自注意力选出 Top-K 最有信息量的特征,再经另一轮时间建模,回归第二阶段质量分数。最终预测 \(S = \gamma S_1 + (1-\gamma) S_2\)

实验关键数据

表1:与 SOTA 方法在 Combined-VSR 数据集上的对比

方法 类型 SRCC↑ PLCC↑ KRCC↑ RMSE↓
PSNR 手工 0.645 0.655 0.468 0.200
SSIM 手工 0.696 0.710 0.525 0.189
VIF 手工 0.746 0.753 0.579 0.165
VSFA 学习 0.808 0.812 0.630 0.152
GSTVQA 学习 0.828 0.825 0.645 0.147
STI-VQA 学习 0.823 0.829 0.648 0.147
FAST-VQA 学习 0.845 0.856 0.651 0.132
MBVQA 学习 0.840 0.853 0.644 0.127
VSR-QAD SR专用 0.860 0.868 0.687 0.125
ReLaX-VQA 学习 0.924 0.936 0.782 0.091
TIG-SVQA SR专用 0.939 0.942 0.794 0.083

TIG-SVQA 在 SRCC 上超越次优方法 ReLaX-VQA 达 1.5%,超越最新 SR 专用方法 VSR-QAD 达 7.9%。

表2:消融实验(Combined-VSR)

变体 SRCC↑ PLCC↑ KRCC↑ RMSE↓
w/o Guidance in IHSM 0.891 0.909 0.716 0.116
w/o Guidance in IGTM 0.908 0.921 0.736 0.095
w/o both Guidance 0.878 0.901 0.707 0.107
Coarse Branch only 0.789 0.846 0.609 0.131
Fine Branch only 0.926 0.927 0.771 0.106
w/o DW-SA-T block 0.891 0.909 0.716 0.116
完整 TIG-SVQA 0.939 0.942 0.794 0.083

表3:模型复杂度对比

模型 FLOPs (G) Params (M) SRCC↑
DISQ 606.69 76.18 0.642
FAST-VQA 70.90 27.55 0.845
STI-VQA 103087.70 89.37 0.823
MBVQA 2149.90 93.23 0.840
VSR-QAD 678.95 23.74 0.860
TIG-SVQA 171.63 24.96 0.939

TIG-SVQA 在 FLOPs 上仅次于 FAST-VQA,参数量与 VSR-QAD 相当,但性能大幅领先。

自适应记忆阈值消融

阈值设置 SRCC↑ PLCC↑ KRCC↑ RMSE↓
固定 = 1 0.931 0.935 0.772 0.095
固定 = 5 0.925 0.932 0.770 0.104
固定 = 15 0.895 0.905 0.727 0.104
自适应 1→5 0.939 0.942 0.794 0.083
自适应 1→10 0.933 0.936 0.782 0.083

亮点

  1. 首次将时间不一致性显式量化并用于 SR-VQA:通过光流差异量化时间不一致性,实证证明其与感知质量高度相关(SRCC=0.939),远优于原始运动信号(SRCC=0.885),为 SR 视频质量评估提供了新视角。
  2. 双粒度空间特征建模:粗粒度 DW-SA Transformer 捕获大尺度不一致性,细粒度 ResNet 检测微妙失真,两路互补——消融实验显示单独使用粗/细分支 SRCC 分别为 0.789/0.926,融合后达 0.939。
  3. 视觉工作记忆容量机制:将认知科学中 VWM 容量有限的发现(3-7 个对象)引入时间聚合,自适应分段相比固定分段 SRCC 提升 0.8-4.4%,是感知对齐的优雅设计。
  4. 极高的效率-性能比:171.63G FLOPs、24.96M 参数,SRCC 0.939;对比 STI-VQA(103087G FLOPs、89.37M 参数、SRCC 0.823),效率-性能比提升数十倍。

局限与展望

  1. 需要参考视频:时间不一致性信息通过 SR 视频与参考视频的光流差异计算,属于 Full-Reference VQA,无法在无参考场景下使用,限制了实际部署。
  2. 数据集规模有限:仅在 SFD(1193 视频)和 MFD(1067 视频)上评测,总计 2260 视频,未在更大规模或更多样化的 SR 数据集上验证。
  3. SR 方法覆盖面:训练和测试数据仅包含 10 种 SR 方法(5 单帧+5 多帧),对基于扩散模型等新一代 SR 方法产生的失真泛化能力未知。
  4. 光流计算开销:时间不一致性量化依赖光流计算(RAFT 等),增加了预处理计算成本。

与相关工作的对比

  • 传统 VQA 方法(VSFA、GSTVQA、FAST-VQA 等):未针对 SR 失真设计,在 SR 场景下时间不一致性被放大时性能不稳定。TIG-SVQA 通过显式建模时间不一致性,SRCC 从 0.808-0.856 提升到 0.939。
  • SR 专用方法(VSR-QAD):虽针对 SR 视频设计,但仍基于时间切片等间接建模,SRCC=0.860 vs TIG-SVQA 的 0.939,差距显著。
  • ReLaX-VQA:作为非 SR 专用方法的最强基线(SRCC=0.924),TIG-SVQA 仍超越 1.5%,且参数量更少。
  • VWM 在 VQA 中的应用(VM-VQA):仅考虑显著性驱动的记忆建模,忽略了记忆容量限制这一关键认知特性。TIG-SVQA 的视觉记忆容量块是首次将此约束引入 VQA。

启发与关联

  • 时间不一致性作为引导信号的思路可扩展到视频生成质量评估(如 Sora 等视频生成模型的评估),生成视频同样存在严重的时间闪烁问题。
  • VWM 容量限制的机制设计可启发其他时间序列任务中的自适应分段策略。
  • 双粒度空间建模(Transformer + CNN 互补)在 SR 质量评估中的有效性,可能对视频修复、视频增强等相关任务有借鉴意义。

评分

  • 新颖性: ⭐⭐⭐⭐ — 首次将时间不一致性显式量化并引导 SR-VQA,VWM 容量机制引入方式新颖,但整体仍是 Transformer+CNN 双路特征融合范式
  • 实验充分度: ⭐⭐⭐⭐ — 18 种方法对比+详尽消融+复杂度分析+超参数敏感性,实验设计全面;数据集规模偏小
  • 写作质量: ⭐⭐⭐⭐⭐ — 动机论证有力(运动 vs 不一致性的实证分析),方法描述清晰,图表丰富
  • 价值: ⭐⭐⭐⭐ — 在 SR-VQA 任务上取得显著提升,时间不一致性引导思路具有广泛适用性