跳转至

Prune2Drive: A Plug-and-Play Framework for Accelerating Vision-Language Models in Autonomous Driving

会议: CVPR 2026
arXiv: 2508.13305
代码: https://github.com/MinhaoXiong/Prune2Drive
领域: 多模态VLM
关键词: 多视角VLM, 视觉Token剪枝, 最远点采样, 视图自适应, 自动驾驶加速

一句话总结

首个面向多视角自动驾驶 VLM 的即插即用 token 剪枝框架,通过 T-FPS(token 级最远点采样)保持语义与空间多样性,配合视图自适应剪枝率优化自动分配各摄像头 token 预算,在 DriveLM 上仅保留 10% token 即实现 6.40× prefill 加速且性能仅降 3%。

背景与动机

  1. 多视角 VLM 计算量爆炸:自动驾驶 VLM(如 DriveMM)需处理 6 个环视摄像头输入,每图 729 tokens,总计 >4000 visual tokens,注意力复杂度 \(O(n^2)\) 导致推理延迟不可接受
  2. 现有剪枝方法仅针对单图设计:FastV、SparseVLM 等忽视多视角的空间和语义多样性,直接应用会丢失关键视角信息
  3. 依赖注意力权重的方法不兼容高效注意力:FastV 等需读取注意力矩阵,与 FlashAttention 等高效实现不兼容
  4. 存在位置偏差:基于注意力分数的方法倾向于系统性保留特定位置的 token,忽视低注意力但语义重要的 token(如远处车辆)
  5. 不同视角贡献不均等:前视摄像头对驾驶决策远比后视重要,但现有方法对所有视角采用相同剪枝率
  6. 实时性需求紧迫:自动驾驶是延迟敏感场景,VLM 的高推理延迟直接影响安全性

方法详解

整体框架

两个核心组件协同工作:(1) T-FPS(Token-wise Farthest Point Sampling)——在 token 嵌入空间中用最远点采样选择最具多样性的 token 子集;(2) 视图自适应剪枝率优化——用 TPE 在小验证集上自动搜索每个摄像头视角的最优 token 保留率。完全 training-free,在视觉编码器输出后直接应用。

T-FPS 多样性感知 Token 选择

借鉴点云处理中的 FPS(Farthest Point Sampling)算法,但从欧氏距离转为余弦距离:

  1. 随机选择一个初始 token 加入已选集合 \(\mathcal{S}\)
  2. 每一步计算所有未选 token 与 \(\mathcal{S}\) 中最新 token 的余弦距离
  3. 更新每个未选 token 的最小距离记录
  4. 选择最小距离最大的 token(即离已选集合最远的)加入 \(\mathcal{S}\)
  5. 重复直到达到目标数量 \(\mathcal{K}\)

关键优势:(a) 不依赖注意力→完全兼容 FlashAttention;(b) 最大化语义+空间覆盖→避免丢失低注意力但重要的物体;(c) 计算开销极低——N=729 时仅 0.02s,< 0.1% 总 FLOPs。

视图自适应剪枝率优化

将每个视角的保留率 \(\alpha_i\) 作为可优化变量,定义目标函数:

\[\mathcal{M}(\boldsymbol{\alpha}) = R(\boldsymbol{\alpha}) - \lambda P(\boldsymbol{\alpha})\]
  • 奖励项 \(R(\boldsymbol{\alpha})\):模型输出与 ground truth 的语言相似度
  • 惩罚项 \(P(\boldsymbol{\alpha}) = \sum_{i=1}^{M} \alpha_i\):总 token 保留量,鼓励稀疏性
  • 超参 \(\lambda\):平衡性能与效率

用 TPE(Tree-structured Parzen Estimator)在 500 个样本的小验证集上搜索最优解,仅需 3 H100 GPU 小时即收敛。结果表明前视摄像头自动获得更高保留率,后视和侧视适度减少。

理论保证

证明了 T-FPS(k-center 贪心近似最小 Hausdorff 距离)+ 视图自适应率(按重要性加权分配预算)的组合,在 View-Weighted Lipschitz 连续性假设下能提供比均匀随机采样+等比例剪枝更紧的误差界:

\[\sum_{i=1}^{M} w_i \cdot d_H(V_i, S_{i,\text{Prune2Drive}}) \leq \sum_{i=1}^{M} w_i \cdot d_H(V_i, S_{i,\text{baseline}})\]

兼容性

完全 training-free,兼容 LLaVA-OneVision-7B(DriveMM)、InternVL2.5-8B(DriveLMM-o1)、LLaVA-1.5-7B 等多种 VLM,无需重训练或访问注意力矩阵。

实验关键数据

DriveLM benchmark(DriveMM 模型,保留 10% token)

方法 Token/图 Avg Score↑ Prefill 加速 FLOPs
Vanilla 729 59.1 100%
FastV 72 54.1 5.78× 14.2%
SparseVLM 72 55.9 4.06× 14.4%
PACT 72 56.8
Prune2Drive 72 57.4 6.40× 13.4%

DriveLMM-o1 benchmark(保留 10% token)

方法 Overall Reasoning↑ Risk Accuracy↑ Scene Understanding↑
Vanilla(100%) 74.2 73.01 75.99
FastV 65.3 65.37 66.43
DART 67.4 65.32 68.17
Prune2Drive 68.3 68.34 69.86

通用 VLM 和视频 AD benchmark

设置 Prune2Drive SparseVLM FastV
LLaVA-1.5(128 tokens) 97.3% 原始性能 96.2% 92.8%
LLaVA-1.5(64 tokens) 94.6% 86.9% 74.3%
OmniDrive(视频 AD) 49.0 46.8 44.3

消融实验

消融项 DriveLMM-o1 Overall↑ 说明
cos 距离(默认) 68.3 最优
L1 距离 68.3 几乎等效
L2 距离 67.7 略低
min 距离(最近采样) 63.0 严重退化 -5.3,验证了多样性原则
TPE(默认) 68.3 最优 HPO
Grid Search 67.3 差 1.0
Evolutionary 67.6 差 0.7

有趣发现:DriveLM 25% token 保留时 Match Score 达 34.0,甚至超过原始模型 33.9——适度剪枝有正则化效果,去除冗余/干扰 token 可提升特定指标。

亮点

  1. 首个多视角自动驾驶专用 token 剪枝:不是简单迁移单图方法,而是系统解决多视角空间/语义多样性和视角贡献差异问题
  2. T-FPS 设计极其优雅:将点云处理中的 FPS 思想迁移到 token 嵌入空间,用余弦距离保证语义多样性,仅 0.02s 计算开销
  3. 视图自适应率优化自动发现前视 > 后视:无需手工设计先验,TPE 搜索自动分配最优预算
  4. 6.40× 加速有直接工业价值:对实时自动驾驶系统的部署有实际意义

局限与展望

  1. 大面积均匀纹理物体可能被欠采样:如橙色公交车因 token 特征相似,T-FPS 可能保留过少 token,导致该物体信息损失
  2. T-FPS 依赖随机初始化:初始 token 的随机选择可能引入轻微波动,论文未报告多次运行的方差
  3. 仅验证 7B-8B 级别 VLM:未在更大模型(70B+)上验证,剪枝比例和效果可能随模型规模变化
  4. 视图自适应率是静态的:对每个样本使用相同的剪枝率,未考虑不同驾驶场景(高速/拥堵/路口)可能需要不同的视角关注分配
  5. KV Cache 只在首次编码时减少:decoding 阶段加速仅 1.04-1.09×,对长序列生成的加速有限

与相关工作的对比

vs FastV / SparseVLM / PACT(单图 Token 剪枝)

FastV 依赖第二层注意力分数选 token,存在位置偏差且不兼容 FlashAttention。SparseVLM 用文本引导的跨模态注意力剪枝,同样需读取注意力。PACT 用渐进式多阶段剪枝。三者均为单图设计,不考虑多视角间的语义互补和贡献差异。Prune2Drive 的 T-FPS 完全不依赖注意力,且视图自适应率是专为多视角设计的。在 64 tokens 的极端压缩下,Prune2Drive (94.6%) 大幅领先 SparseVLM (86.9%) 和 FastV (74.3%)。

vs DriveMM / DriveLMM-o1(自动驾驶 VLM)

DriveMM 和 DriveLMM-o1 是自动驾驶专用 VLM,Prune2Drive 作为即插即用模块直接应用于它们之上,不修改模型权重。这种正交的加速方式意味着 Prune2Drive 可与任何未来的自动驾驶 VLM 组合使用。

vs 量化 / 蒸馏(其他加速方法)

量化(如 GPTQ)减少精度但不减少 token 数量,蒸馏需要额外训练。Prune2Drive 是 training-free 的 token 减少方法,与量化和蒸馏正交,可同时使用以获得更大加速。

评分

  • 新颖性: ⭐⭐⭐⭐ — T-FPS 和视图自适应率的组合是新颖的,但 FPS 本身和 token 剪枝都是已有概念
  • 实验充分度: ⭐⭐⭐⭐⭐ — 两个 AD benchmark + 通用 VLM + 视频 AD + 完备消融 + 效率分析 + 理论证明
  • 写作质量: ⭐⭐⭐⭐ — 结构清晰,理论-实验-分析完整,公式推导严谨
  • 价值: ⭐⭐⭐⭐ — 对多视角 VLM 加速有直接实用价值,6.40× 加速在工业界有吸引力