跳转至

MMErroR: A Benchmark for Erroneous Reasoning in Vision-Language Models

会议: ACL 2026
arXiv: 2601.03331
代码: https://mmerror-benchmark.github.io
领域: 多模态VLM
关键词: 错误推理诊断, 视觉语言模型评测, 过程级评估, 错误分类, 多模态推理

一句话总结

本文提出 MMErroR,一个包含 1997 个样本的多模态错误推理基准,每个样本嵌入一个单一推理错误,覆盖 6 大领域和 4 种错误类型,要求 VLM 不仅检测推理链中的错误存在,还要分类错误类型(视觉感知错误/知识应用错误/问题理解错误/推理错误),评测 12 个代表性 VLM 后发现最强模型 Gemini-3-Pro-Preview 也仅达 66.65% 准确率。

研究背景与动机

领域现状:视觉语言模型(VLM)在 MMMU、MathVista 等基准上不断刷新纪录,给人以"模型已接近人类理解"的印象。然而,现有评测几乎全部采用"结果导向"范式——只检查最终答案是否正确,不关注模型达到答案的推理过程是否合理。

现有痛点:(1) 最终答案正确不代表推理过程正确——模型可能通过捷径或模式匹配得出正确结果,掩盖了内在推理能力的不足;(2) 现有错误定位基准(如 ProcessBench、ErrorRadar)仅关注"哪一步出错",不诊断错误的类型和根因;(3) 这些基准要么局限于单一模态(纯文本),要么缺乏领域多样性和错误分类体系。

核心矛盾:VLM 在各种基准上的高分表现与其在面对错误推理链时的诊断能力之间存在巨大落差。模型能生成看似合理的推理链,但无法判断推理过程中的错误,说明"生成能力"与"自省能力"是两种截然不同的能力。

本文目标:构建一个多模态、多领域、带错误类型分类的过程级推理评测基准,系统评估 VLM 是否具备"识别错误推理并诊断错误类型"的能力。

切入角度:从"错误分类"而非"错误定位"切入——不仅要检测哪一步出错,更要诊断出错误的根因是视觉感知失败、知识应用失误、问题理解偏差还是逻辑推理谬误。

核心 idea:设计一个每个样本仅包含一个明确根因错误的受控基准,通过 GPT-5 注入错误、三轮人工验证和质量评分筛选,确保错误类型标注的唯一性和可归因性,支持错误类型分类(ETC)和错误存在检测(EPD)两种评估模式。

方法详解

整体框架

MMErroR 的构建流程分四步:(1) 问题策展——从 MMMU、MathVista、MathVerse、ScienceQA、AI2D 等基准中分层采样,并进行复杂度过滤保留多步推理实例;(2) 错误注入——用 GPT-5 在正确推理链中注入一个语义连贯的错误,限制为四种预定义类型之一;(3) 数据验证——20 位专家(6 位教授 + 14 位博士生)进行三轮人工检查,从初始 10000 样本筛选到 3148 个;(4) 质量保证——至少两位语言学专家从连贯性、步骤清晰度、错误可定位性和语义一致性四个维度打分,保留均分 > 0.5 的 1997 个样本。

关键设计

  1. 四类错误分类体系:

    • 功能:提供细粒度的错误根因诊断框架
    • 核心思路:定义四种互斥的错误类型——视觉感知错误(VPE,如物体误识别、空间关系误判、符号误读)、知识应用错误(KDE,如使用错误公式、误用物理定律,占比最大 44.07%)、问题理解错误(QCE,如误解问题意图、忽视关键约束)、推理错误(RE,如逻辑谬误、缺少前提、无效推理步骤)。每条推理链仅包含一个错误,确保归因唯一性。
    • 设计动机:不同类型的错误反映了模型多模态理解流水线中不同阶段的弱点,仅定位错误步骤无法揭示失败的本质原因。
  2. 双模式评估协议(ETC + EPD):

    • 功能:从两个难度层级评估模型的错误诊断能力
    • 核心思路:ETC(错误类型分类)模式告知模型推理链必然有错,要求分类错误类型;EPD(错误存在检测)模式要求模型先判断"是否有错"再分类——由于当前数据集仅含错误样本,EPD 作为错误敏感性和归因能力的受控压力测试。EPD 中"总是报错"策略不能取巧,因为只有同时正确分类错误类型才给分。
    • 设计动机:ETC 测试模型在已知有错条件下的诊断精度,EPD 更进一步测试模型主动发现错误的能力,两者结合可全面评估自省能力。
  3. 单错误受控设计 + 多阶段质量过滤:

    • 功能:确保基准的可归因性和高质量
    • 核心思路:每条推理链仅注入一个根因错误,其余步骤保持局部连贯和逻辑有效。三轮专家审核(一致通过才保留)+ 四维度质量评分(连贯性/步骤清晰度/错误可定位性/语义一致性,均分阈值 0.5)。Cohen's Kappa \(\kappa = 0.796\),第三轮淘汰率仅 2.81%(观察一致率 97.19%)。
    • 设计动机:多错误交互会严重混淆归因,单错误设计虽牺牲了真实性但换来了诊断标签的明确性和评测的可解释性。

损失函数 / 训练策略

本文为评测基准论文,不涉及模型训练。评估采用多选题格式,模型输出对应标签,所有模型解码温度设为 0 以确保确定性和可复现性。

实验关键数据

主实验

模型 ML PE CM BH EE DA 总分 (ETC)
Gemini-3-Pro-Preview 66.37 66.88 69.81 64.43 65.39 69.26 66.65
Doubao-Seed-2.0-pro 65.47 67.32 61.01 59.94 66.16 66.22 64.80
GPT-5.2 (xhigh) 64.56 63.62 62.26 60.50 65.14 69.59 64.30
Claude-Opus-4.5 62.76 61.00 61.64 57.70 56.74 68.58 61.04
Kimi-K2.5 63.66 55.56 51.57 58.82 66.67 61.15 60.19
Qwen3-VL-32B-Thinking 59.46 54.90 52.20 65.83 60.81 59.80 59.29
Human Expert (High) 91.07 88.65 87.50 90.15 88.96 90.18 89.52
Random Choice 22.10 23.62 24.18 24.06 21.50 25.53 23.45
模型 ETC 总分 EPD 总分 EPD 下降幅度
Gemini-3-Pro-Preview 66.65 61.39 -5.26
GPT-5.2 (xhigh) 64.30 58.54 -5.76
Claude-Opus-4.5 61.04 55.18 -5.86
Kimi-K2.5 60.19 51.63 -8.56
LLaMA-4-Maverick 39.46 18.13 -21.33

消融实验

输入条件 Gemini-3-Pro GPT-5.2 Doubao-Seed Qwen3-VL-32B
VQA(原始问答) 81.0 80.0 80.5 78.5
VQA+错误链 82.5 80.5 81.5 80.0
VQA+错误链+错误步骤 84.0 82.0 83.0 82.5
VQA+错误链+错误类型 90.5 89.5 88.5 84.5

关键发现

  • 所有模型距人类专家差距巨大:最强 VLM(66.65%)与人类专家高组(89.52%)相差近 23 个百分点,表明错误推理诊断是 VLM 的重大弱项。
  • EPD 比 ETC 难得多:所有模型从 ETC 到 EPD 均显著下降,LLaMA-4-Maverick 从 39.46% 暴跌至 18.13%,说明"主动发现错误"比"被告知有错后分类"困难得多。
  • 错误诊断能力与问答能力正相关:模型能正确诊断错误类型的样本,其原始 VQA 准确率也更高(Gemini: 85.5% vs 74.5%),说明错误诊断能力反映了真正的理解深度。
  • 错误类型信息比错误步骤信息更有用:提供错误类型后 VQA 准确率提升 ~9.5 个点,而仅提供错误步骤只提升 ~2-3 个点,证明"知道为什么错"比"知道哪里错"更具矫正价值。
  • 无单一模型在所有领域占优:不同模型在不同领域各有优势,说明错误诊断依赖领域知识、视觉接地和程序推理等多种底层能力。

亮点与洞察

  • 从"答案正确性"到"过程诊断"的范式转变:MMErroR 首次将多模态推理评测从"结果对不对"推进到"能否诊断推理过程中的错误类型",为理解 VLM 的真实推理能力提供了全新视角。
  • 错误类型比错误位置更具矫正价值:消融实验清晰表明,知道"为什么错"(错误类型)比知道"哪里错"(错误步骤)对纠正错误更有效,这对未来 VLM 自纠正机制的设计有重要启示。
  • Logit Lens 可视化分析:通过 Qwen3-VL-32B-Instruct 的 logit lens 分析,直观展示了正确诊断时视觉 token 与文本 token 的精确语义对齐,以及错误诊断时跨模态对齐的崩塌。
  • 质量控制极其严格:从 10000 初始样本经三轮专家审核到 3148 再经质量评分到 1997,保留率约 20%,Cohen's Kappa 0.796,保证了基准的高可靠性。

局限与展望

  • 每个样本仅包含一个错误,真实世界的推理失败往往涉及级联或多个同时存在的错误。
  • 当前版本仅包含错误推理链,EPD 任务无法测试模型在正确推理链上的假阳性率(即"过度报错"问题)。
  • 初始错误推理链由 GPT-5 生成,可能引入特定于生成模型的偏差(错误模式或语言风格)。
  • 未来可扩展到开放式生成评估(而非多选题格式)和多错误级联场景。

相关工作与启发

  • vs ProcessBench/PRISM-Bench: 这些基准仅定位错误步骤但不分类错误类型,MMErroR 要求模型诊断错误的根因。
  • vs ErrorRadar: ErrorRadar 关注错误定位但缺乏多领域覆盖和错误分类体系。
  • vs POPE/HallusionBench: 这些幻觉基准主要针对视觉感知错误,MMErroR 覆盖了知识应用、问题理解和逻辑推理等更高阶的失败模式。
  • vs MMMU/MathVista: 这些基准采用结果导向评估,MMErroR 转向过程级诊断评估,与之形成互补。

评分

  • 新颖性: ⭐⭐⭐⭐ 首次系统化地评估 VLM 的错误推理诊断能力,错误分类体系设计合理
  • 实验充分度: ⭐⭐⭐⭐⭐ 12 个模型、6 大领域、双评估模式,辅以推理一致性分析、多模态对齐分析和错误感知消融
  • 写作质量: ⭐⭐⭐⭐ 结构清晰,实验设计严谨,质量控制过程透明
  • 价值: ⭐⭐⭐⭐ 为理解和提升 VLM 自省能力提供了重要基准和洞察