跳转至

HERBench: A Benchmark for Multi-Evidence Integration in Video Question Answering

会议: CVPR 2026
arXiv: 2512.14870
代码: 无
领域: 视频理解 / 多模态VLM
关键词: 视频问答基准, 多证据整合, 帧选择, 长视频理解, 时间推理

一句话总结

HERBench 是一个专为多证据整合设计的视频问答基准,包含 26,806 个五选一问题,每题结构性地要求融合 ≥3 个时间分散的非重叠视觉线索;通过提出最小必需帧集(MRFS)指标揭示了当前 Video-LLM 的两个关键瓶颈:帧检索不足和证据融合失败。

研究背景与动机

  1. 领域现状:Video-LLM(如 GPT-4o、Gemini、Qwen2.5-VL 等)在现有 VideoQA 基准上取得了不错的分数,看似视频理解能力在快速进步。

  2. 现有痛点:近期审计研究揭示,这些高分往往源于语言先验或单线索捷径,而非真正的时间推理。模型可以仅看一帧或利用语言偏见就答对问题,现有基准无法区分"真正理解视频"和"走捷径"。

  3. 核心矛盾:现有 VideoQA 基准的问题设计允许单线索捷径——一个关键帧或文字常识就足以回答。这使得我们无法确定模型是否真正具备跨时间整合多条证据的能力。

  4. 本文目标 (1) 设计一个结构性要求多证据整合(≥3 条分散线索)的基准;(2) 提出可度量"证据需求量"的量化指标 MRFS;(3) 诊断当前 Video-LLM 的具体失败模式——是帧选择的问题还是信息融合的问题。

  5. 切入角度:作者定义了"证据需求量"(Evidential Requirement, ER)的概念——回答一个问题所需的最少非冗余视觉证据数量。通过控制 ER ≥ 3,可以从根本上排除单线索捷径,使多证据推理成为不可绕过的要求。

  6. 核心 idea:通过结构性设计确保每个问题至少需要 3 条时间分散的视觉线索,配合 MRFS 指标量化帧融合难度,系统性揭示 Video-LLM 在帧检索与证据融合上的双重短板。

方法详解

整体框架

HERBench 是一个评估基准而非模型。它的核心是:(1) 一套 12 类组合推理任务的分类体系,组织为 4 个推理家族;(2) 一条三通道数据构造管线(目标跟踪+镜头分割+人工标注整合);(3) MRFS 指标用于跨基准比较证据需求量。基准包含 336 个长视频(平均 395 秒),26,806 个五选一问题。

关键设计

  1. 四大推理家族与 12 个子任务:

    • 功能:覆盖多证据整合的各种推理模式,确保每个问题不能通过单帧或语言先验解答
    • 核心思路:(a) 时间推理与时序(TR&C):包括镜头时序排列(TSO)、多人持续时间推理(MPDR)、动作序列完整性识别(ASII)——要求理解事件顺序、时间重叠和持续时间比较;(b) 指代与跟踪(R&T):包括外观锚定行为交互(AGBI)、外观锚定属性识别(AGAR)、外观锚定定位轨迹(AGLT)——要求跨时间维持目标身份绑定;(c) 全局一致性与验证(GC&V):包括虚假动作记忆(FAM)、场景验证排列(SVA)、虚假物体记忆(FOM)——要求全视频扫描验证存在性和检测缺失;(d) 多实体聚合与计数(MEA&N):包括多实体定位(MEGL)、动作计数(AC)、区域限制人数统计(RLPC)——要求跨时间去重和集合级聚合
    • 设计动机:这些任务重新设计了已有的 VideoQA 类别(时序排列、计数等),但关键区别在于每个问题结构性地强制 \(k \ge 3\):答案必须从视频中多个不同时刻的线索组合推导,无法从单一帧或局部窗口获得
  2. 三通道数据构造管线:

    • 功能:从不同粒度提取视频的时空信息,构造高质量多证据问题
    • 核心思路:管线 I(目标跟踪与轨迹分析):用 RF-DETR + DeepSORT 获取实体轨迹,通过 TrackRank 分数保留前 20% 实体,为每个轨迹生成不重叠的 A-card(外观描述)和 B-card(行为/轨迹描述),刻意将外观识别与行为查询分离到不同时间帧。管线 II(镜头分割):用镜头边界检测将视频离散化为语义片段,用 MLLM 为每段生成场景卡片。管线 III(人工标注整合):整合人工验证的旁白事件日志,建立真实的事件时序和计数
    • 设计动机:三通道互补——管线 I 提供连续的微观实体动态,管线 II 提供宏观的场景结构,管线 III 提供人工验证的事实锚点。A/B 卡片的分离设计确保了身份绑定任务不能通过局部属性查找解决
  3. 最小必需帧集(MRFS)指标:

    • 功能:量化模型回答一个问题所需融合的最少帧数,使跨基准比较成为可能
    • 核心思路:固定一个 MLLM \(f\)、帧选择器 \(r\) 和帧预算 \(x\),MRFS 定义为使模型从不正确变为正确的最小帧数 \(k\)。计算时先排除纯文本可解的问题(\(E(f(q, \varnothing), y) = 0\)),然后用自适应二分搜索在 \(k \in [1, x]\) 范围找最小成功索引,每个问题仅需 \(O(\log x)\) 次模型调用
    • 设计动机:现有指标(Temporal Indispensability、Certificate Length)要么只测单帧 vs 多帧,要么依赖人工标注。MRFS 是自动化的、以模型为中心的指标,直接量化多证据聚合挑战

质量控制

  • 通过 token 级别相似度检查和人工审查确保 A/B 卡片不泄露信息
  • 丢弃被 ≥3/4 个盲 LLM 正确回答的题目(语言偏见去除)
  • 分层抽样 15% 做专家验证,确认 \(k \ge 3\) 合规和答案唯一性
  • 人类标注者在全视频访问下准确率 88.8%,在 oracle 帧下达 95.7%

实验关键数据

主实验

13 个 SOTA Video-LLM 评估,整体准确率仅 31-42%(随机猜 20%):

模型 TR&C Avg. R&T Avg. GC&V Avg. MEA&N Avg. 总体
GPT-4.1 25.4 66.0 37.1 29.0 39.4
Gemini-2.5-Flash 29.7 69.9 34.9 26.8 40.3
Qwen2.5-VL-72B 26.9 70.9 36.6 24.4 39.7
Ovis-2.5-9B 18.9 73.5 46.8 29.2 42.1
InternVL3.5-8B 33.6 70.2 29.7 30.8 41.1

跨基准 MRFS 比较

基准 视频数 问题数 MRFS↑ 语言去偏 强制融合
MVBench 4,000 4,000 3.52
Video-MME 900 2,700 5.31
MINERVA 223 1,515 5.14
HERBench 336 26,806 5.49

关键发现

  • 帧检索瓶颈(Finding 1):自适应帧选择器虽优于均匀采样,但与 oracle 关键帧相比仍有显著差距——模型根本没找到关键证据帧
  • 融合瓶颈(Finding 2):即使给了 oracle 帧,模型准确率也只有适度提升,说明模型无法正确分配注意力到所有关键帧并整合信息
  • R&T 家族得分相对较高(~60-73%),因为这些任务中的外观描述提供了较强的视觉锚点;TR&C 和 MEA&N 家族得分最低(<30%),反映出模型在时序推理和多实体聚合上的严重短板
  • 小模型(如 Ovis-2.5-9B)在某些任务上反而优于大模型(GPT-4.1),暗示问题不仅仅是模型规模

亮点与洞察

  • MRFS 指标的设计很精妙:它不是简单计算需要多少帧,而是固定一个帧选择器后用二分搜索找最小成功帧数,同时排除纯文本可解的问题,使得跨基准比较公平且计算高效
  • A/B 卡片分离设计:将外观描述和行为查询刻意放在不同时间帧,强制模型先通过外观描述在视频中定位目标,再跟踪到行为发生时刻才能回答,这种设计巧妙地将身份绑定做成了必须的多帧推理
  • 双瓶颈诊断框架:通过 oracle 帧实验将帧选择与融合推理解耦,明确指出"找到帧"和"用好帧"是两个独立的挑战,为后续研究指明了清晰的方向

局限与展望

  • 基准部分通过自动化管线生成,可能存在残留的系统性偏差
  • 仅有 336 个视频,场景多样性可能不足以代表所有真实场景
  • MRFS 依赖于特定的帧选择器和模型,不同组合可能给出不同排序
  • 主要评估现有模型的失败,但未提供改进模型的具体方案(纯诊断性质)
  • R&T 任务准确率较高,可能意味着这部分任务的 ER 设计不够严格

相关工作与启发

  • vs Video-MME: Video-MME 侧重更长的上下文,但不控制证据需求量;HERBench 通过结构性设计确保高 ER,证据密度而非视频长度是难度来源
  • vs MINERVA: MINERVA 也做了语言去偏且 MRFS 较高,但它聚焦于多步推理和推理链审计,而非强制的多帧证据聚合
  • vs MVBench: MVBench 覆盖多种时间推理任务但使用短视频,且问题常可通过单帧解答

评分

  • 新颖性: ⭐⭐⭐⭐ 首个以证据需求量为核心设计理念的 VideoQA 基准,MRFS 指标有创新
  • 实验充分度: ⭐⭐⭐⭐⭐ 评估了 13 个模型,跨基准 MRFS 比较,多维度诊断分析
  • 写作质量: ⭐⭐⭐⭐ 框架清晰,任务分类体系完整,但论文较长
  • 价值: ⭐⭐⭐⭐ 诊断了 Video-LLM 的关键短板,为领域进步提供了重要参考