跳转至

ViUniT: Visual Unit Tests for More Robust Visual Programming

会议: CVPR 2025
arXiv: 2412.08859
代码: 项目页面
领域: 图像生成 / 视觉推理
关键词: 视觉编程, 单元测试, 程序选择, 视觉问答, 强化学习

一句话总结

ViUniT提出了一个自动生成视觉单元测试的框架,通过LLM生成图像描述和预期答案、文本到图像模型生成测试图像,验证视觉程序的逻辑正确性,将7B开源模型提升到超越gpt-4o-mini的水平并减少40%的"对了但原因错误"的程序。

研究背景与动机

视觉编程(Visual Programming)通过生成调用专家系统的可执行程序来解决组合推理任务,但存在严重的可靠性问题。在基准数据上,即使模型回答正确,33%的时间程序是错误的——模型经常"出于错误的原因得到正确答案",在新数据上可能出现意外失败。

单元测试在软件工程中是确保代码正确性的基础方法,但在视觉编程中的应用受限:(1) 现有方法仅检查返回值类型(如输出是否在yes/no范围内),不评估逻辑正确性;(2) 视觉单元测试需要图像-答案对,构建成本高;(3) 如何利用测试信号改善模型行为是一个挑战。

ViUniT的核心思路:利用LLM生成测试场景描述和预期答案,用扩散模型生成对应图像,构建完全无监督的视觉单元测试套件。

方法详解

整体框架

ViUniT框架包含:(1) 候选单元测试生成——用LLM创建图像描述和预期答案对;(2) 覆盖率采样——选择最大化覆盖率的测试子集;(3) 图像生成——用扩散模型将描述转为图像;(4) 程序评分与选择——在测试上执行候选程序并选择最佳。四种利用方式:最优程序选择、回答拒绝、重新提示、无监督RL奖励。

关键设计1: 覆盖率感知的单元测试采样

  • 功能: 从候选测试集中选择最具诊断价值的测试子集,最大化覆盖率
  • 核心思路: 分两步采样:先按答案覆盖确保每种可能答案\(y \in Y\)至少有一个测试(公式2);再按输入覆盖最大化图像描述的CLIP嵌入距离\(\sigma_V(\mathcal{T}_K)\)(公式3-4),迭代添加与已选集合特征距离最远的测试。整个过程在语言空间操作以减少计算开销,仅为最终选定的\(K\)个测试生成图像
  • 设计动机: 直接用所有候选测试开销过大,而随机采样可能导致答案不均衡或输入重复。"按答案再按输入"的策略在GQA上随测试数量增加持续提升

关键设计2: 程序无关的测试生成

  • 功能: 利用LLM生成与程序实现无关的测试用例,避免过拟合到特定实现
  • 核心思路: 单元测试生成器\(\psi\)以查询\(q\)(可选地包含程序\(p\))为输入,使用Llama-3-8B-Instruct生成\(M\)个候选测试,每个测试为(图像描述\(c_i\), 预期答案\(y_i\))对。实验发现不包含程序实现信息的生成在高测试数和高程序数设置下显著更优
  • 设计动机: 遵循软件工程最佳实践——单元测试应独立于实现。包含程序信息在少量测试时有帮助但在规模化后反而有害

关键设计3: 四种测试利用策略

  • 功能: 将单元测试信号转化为模型改进的不同机制
  • 核心思路: (a) 最优程序选择: \(p^* = \arg\max_{p \in \mathcal{P}} S(p)\),选通过最多测试的程序;(b) 回答拒绝: 若\(S(p^*) < \theta\)则退回到端到端模型;(c) 重新提示: 用测试反馈\(\mathcal{F}\)(描述、预期答案、实际输出的差异)作为上下文引导LLM生成改进程序;(d) 无监督RL奖励: \(R_{\text{ViUnit}}(v,p)\)替代需要GT标签的正确性奖励,通过\(S(p) \geq \theta\)的阈值提供更细粒度的反馈
  • 设计动机: 不同场景需要不同利用方式——程序选择最简单有效;RL奖励解决了"正确但原因错误"程序被强化的问题

损失函数

RL训练使用奖励加权的负对数似然损失:\(J(w) = \mathbb{E}_{(v,q,p,y) \sim D}[R(v,p,y) L_{\text{NLL}}(p,q;w)]\)

实验关键数据

主实验: 最优程序选择性能

LLM #Prog #UT GQA Winoground SugarCREPE Avg
gpt-4o-mini 1 0 42.03 44.98 38.75 41.92
CodeLlama-7B 5 5 49.00 54.38 46.79 50.06
CodeGemma-7B 5 5 48.71 50.63 48.57 49.30

消融: RL奖励设计

奖励类型 GQA 特点
Correctness (有监督) 基线 需要GT标签
ViUnit (无监督) +1.3 avg 无需GT标签

关键发现

  • ViUniT将冻结LLM的准确率提升11.4%
  • 7B开源模型平均超越gpt-4o-mini 7.7个百分点
  • 减少40%的"对了但原因错误"的程序
  • 5个测试+5个程序后收益递减
  • 无监督ViUnit RL奖励超过有监督正确性奖励1.3个百分点
  • 重新提示比无反馈重生成提升3%+

亮点与洞察

  1. 软件工程思维进入视觉AI:将单元测试的概念优雅地迁移到视觉编程中,用LLM+扩散模型自动构建测试
  2. 无监督奖励优于有监督:ViUnit的RL奖励不需要GT标签却超过基于GT正确性的奖励,因为它更好地惩罚了"正确但原因错误"的程序
  3. 覆盖率最大化是关键:系统性分析了测试生成/采样/图像生成的最佳配置

局限与展望

  • 图像生成质量影响测试可靠性,空间关系的生成仍有局限
  • 单元测试执行增加了推理时间
  • 当前框架依赖于外部专家模型(检测器、VQA模型等)
  • 未来可探索将ViUniT扩展到更复杂的视觉推理任务

相关工作与启发

  • ViperGPT: 视觉编程的开创性工作,本文在其API基础上构建
  • Khan et al.: 使用正确性奖励的RL训练,但会强化"对了但原因错误"的程序
  • Hu et al.: 用GT答案作为正确性代理选择最佳程序,而ViUniT不需要GT
  • 启发:自动化测试不仅可以评估程序质量,还可以作为无监督训练信号

评分

⭐⭐⭐⭐ — 将软件工程的单元测试概念创新地应用于视觉编程,方法设计系统且严谨。四种利用策略覆盖了从推理到训练的不同场景。11.4%的提升和对gpt-4o-mini的超越令人印象深刻。