跳转至

EVT: Efficient View Transformation for Multi-Modal 3D Object Detection

会议: ICCV 2025
arXiv: 2411.10715
代码: 无
领域: 自动驾驶 / 3D目标检测
关键词: BEV表示, LiDAR-Camera融合, 视图变换, 多模态3D检测, 实时推理

一句话总结

提出EVT框架,通过自适应采样与自适应投影(ASAP)实现高效的LiDAR引导视图变换,结合分组混合查询选择和几何感知交叉注意力,在nuScenes测试集上以实时速度达到75.3% NDS的SOTA性能。

研究背景与动机

多模态传感器融合在BEV表示下的3D目标检测是当前主流方案。现有的显式融合方法主要分为两类:

基于深度的VT方法:通过逐像素深度估计将图像特征提升到BEV空间,但对深度误差敏感,鲁棒性差

基于查询的VT方法:通过注意力机制在预定义3D点上提取特征,但计算开销大,且预定义的采样点位置无法精确对齐物体区域

两类方法都缺乏几何引导,导致射线方向错位(ray-directional misalignment)——沿射线方向捕获了非目标信息,降低了BEV表示精度。此外,现有查询初始化策略和交叉注意力机制未能充分利用物体的几何结构,限制了检测性能。

方法详解

整体框架

EVT包含三个核心部分: - 分别用图像骨干网络和LiDAR骨干网络提取多尺度透视图特征 \(\{PV_j\}\) 和BEV LiDAR特征 \(BEV_{lidar}\) - ASAP模块将图像特征变换到BEV空间并与LiDAR特征融合 - 改进的查询式检测框架(分组混合查询选择 + 几何感知交叉注意力)预测3D边界框

关键设计

  1. 自适应采样(Adaptive Sampling, AS):利用LiDAR特征为每个BEV网格单元生成最优采样高度,而非使用预定义的3D点。具体做法是通过卷积从 \(BEV_{lidar}\) 生成 \(N_h\) 个高度值 \(\{Z_i\}\),构建3D采样点 \(P=\{(X,Y,Z_i)\}\),投影到图像平面采样多尺度特征 \(f_i^j\),再通过自适应权重 \(W_{as}\) 加权聚合:
\[BEV_{as}(u,v) = \sum_{j=1}^{N_s}\sum_{i=1}^{N_h} W_{as}(j,i) \cdot f_i^j\]

其中权重由LiDAR特征经softmax生成,使采样更聚焦于高相关性的图像区域。

  1. 自适应投影(Adaptive Projection, AP):使用LiDAR特征生成逐网格的自适应核 \(K_{ap} \in \mathbb{R}^{C \times C}\),对AS输出的BEV特征图进行逐通道线性投影精炼:
\[BEV_{camera}(u,v) = BEV_{as}(u,v) \times K_{ap}\]

AP通过利用LiDAR的空间信息有效消除射线方向错位,特别是处理遮挡和空3D空间的问题。融合后通过拼接+卷积得到 \(BEV_{fuse}\)

  1. 分组混合查询选择(Group-wise Mixed Query Selection):将物体类别分为6组(如car、truck+construction vehicle等),每组预测热力图并选择top-k关键点作为查询位置。与现有方法不同,查询特征使用分组共享可学习参数初始化——同组查询共享参数以捕获该组的共性属性,而非DINO的逐实例参数或TransFusion的直接采样。实验证明组共享优于实例级初始化。

  2. 几何感知交叉注意力

    • 角点感知采样(Corner-aware Sampling):初始偏移由查询特征生成后,通过几何变换将采样点重定位到边界框的四个角点,并根据朝向角旋转对齐,采样公式涉及旋转矩阵和边界框尺寸 \((l, w, \theta)\)
    • 位置感知特征混合(Position-aware Feature Mixing):对采样特征添加基于正弦位置编码的位置向量 \(e_i\),构建位置感知特征 \(G\),然后依次进行自适应通道混合(动态权重 \(W_c\))和自适应空间混合(动态权重 \(W_s\)),最终通过残差连接更新查询

损失函数 / 训练策略

  • 热力图预测:Gaussian Focal Loss
  • 分类:Focal Loss
  • 回归:L1 Loss
  • 采用查询去噪策略(Query Denoising)
  • 8张RTX 3090,batch size 16,训练10 epochs,使用CBGS策略
  • AdamW优化器,学习率 \(1 \times 10^{-4}\),权重衰减 \(1 \times 10^{-2}\),循环学习率策略

实验关键数据

主实验

方法 模态 NDS (val) mAP (val) NDS (test) mAP (test)
TransFusion-L L 70.1 65.1 70.2 65.5
EVT-L (Ours) L 71.7 66.4 72.1 67.7
BEVFusion LC 71.4 68.5 72.9 70.2
DeepInteraction LC 72.6 69.9 73.4 70.8
CMT LC 72.9 70.3 74.1 72.0
SparseFusion LC 72.8 70.4 73.8 72.0
UniTR LC 73.3 70.5 74.5 70.9
FusionFormer LCT 74.1 71.4 75.1 72.6
EVT (Ours) LC 74.6 72.1 75.3 72.6

EVT在nuScenes test上达到75.3% NDS和72.6% mAP,超越所有先前方法。相比LiDAR-only的EVT-L提升3.2% NDS,说明相机数据被有效利用。

消融实验

ASAP模块消融(ResNet-50骨干):

设置 LiDAR Camera AS AP NDS mAP FPS
(a) LiDAR-only 71.7 66.4 12.1
(b) +Vanilla VT 72.7 69.1 8.5
(c) +AS 73.5 70.6 8.5
(d) +ASAP 74.1 71.1 8.3

ASAP相比vanilla VT提升1.4% NDS和2.0% mAP,仅增加3ms延迟。

查询初始化策略消融(6层decoder NDS %):

策略 1层 6层
(a) 全可学习 56.8 69.6
(b) 全热力图 70.4 70.7
(c) 混合+分组共享 69.8 71.7

分组混合初始化在多层decoder中显著优于其他策略。

关键发现

  • ASAP通过LiDAR引导使采样点自适应定位到物体相关区域,有效解决射线方向错位
  • 分组共享参数的查询初始化在多层decoder中表现最优,比逐实例参数更能捕获组内共性
  • 角点感知采样+位置感知特征混合共提升1.2% NDS和1.2% mAP
  • 几何感知交叉注意力具有通用性,集成到StreamPETR也能带来提升(+1.3% NDS @24epochs)

亮点与洞察

  • 设计理念巧妙:用LiDAR特征引导图像到BEV的变换,既不依赖容易出错的深度估计,也不需要昂贵的transformer编码器
  • 射线方向错位问题的提出和解决:清晰定义了该问题并通过ASAP有效解决,BEV特征图可视化证据充分
  • 效率优势明显:ResNet-50骨干下8.3 FPS,V2-99下4.9 FPS,具备实时部署潜力
  • 几何感知注意力的可迁移性:可直接应用到其他检测器

局限与展望

  • 仅在nuScenes评估,缺少其他数据集(如Waymo)的验证
  • 当前仅使用单帧数据,未利用时序信息(FusionFormer用了时序融合)
  • ASAP依赖LiDAR特征的质量,在LiDAR稀疏区域性能可能受限
  • 未讨论Camera-only场景下的适应方案

相关工作与启发

  • TransFusion的顺序式跨注意力启发了多模态融合设计
  • DINO的查询初始化策略被改进为分组共享方式
  • AdaMixer的特征解码思路被用于对比,发现其不适合角点采样场景
  • 对StreamPETR的扩展实验启发了几何感知注意力的通用价值

评分

  • 新颖性: ⭐⭐⭐⭐ ASAP和几何感知交叉注意力均有明确创新点,射线方向错位问题分析到位
  • 实验充分度: ⭐⭐⭐⭐ 消融实验详尽,每个组件都有可视化佐证,但缺少多数据集验证
  • 写作质量: ⭐⭐⭐⭐ 公式清晰,图示直观,结构规范
  • 价值: ⭐⭐⭐⭐ 方法实用,效率和精度平衡好,SOTA结果有说服力