跳转至

V2X-Radar: A Multi-Modal Dataset with 4D Radar for Cooperative Perception

会议: NeurIPS 2025
arXiv: 2411.10962
代码: GitHub
领域: Autonomous Driving
关键词: cooperative perception, 4D radar, V2X, multi-modal dataset, 3D object detection

一句话总结

提出 V2X-Radar,首个大规模真实世界多模态车路协同感知数据集,包含 4D 雷达、LiDAR 和多视角相机数据,覆盖多种天气和光照条件,提供 20K LiDAR 帧、40K 相机图像、20K 4D 雷达数据和 350K 标注框,并建立三个子数据集的全面基准。

研究背景与动机

单车感知面临遮挡和感知范围受限的安全挑战。车路协同 (V2X) 感知通过共享信息扩展感知范围,但目前存在一个关键空白:

现有 V2X 数据集缺少 4D 雷达:OPV2V、DAIR-V2X、V2V4Real 等数据集仅包含相机和 LiDAR,忽视了 4D 雷达在恶劣天气下的鲁棒性优势

单车数据集已有 4D 雷达:K-Radar、Dual-Radar 等证明了 4D 雷达对雨雪雾等极端天气的强适应性,但协同感知领域尚无此类数据集

场景多样性不足:现有真实 V2X 数据集多为特定时段/天气采集,缺乏昼夜、晴雨雪雾的全面覆盖

方法详解

整体框架

V2X-Radar 数据集包含三个子集: - V2X-Radar-C:车路协同感知(40 个序列) - V2X-Radar-I:路侧感知(10 个序列) - V2X-Radar-V:单车感知(10 个序列)

关键设计

  1. 传感器平台配置

    • 车端:RoboSense RS-Ruby-80 LiDAR(80 线)+ Basler 相机(1920×1080)+ Arbe Phoenix 4D 雷达(77GHz,水平 ±50°)+ GPS/IMU + C-V2X 通信单元
    • 路侧:RoboSense RS-Ruby-80 LiDAR + 3 个 Basler 多视角相机(1536×864)+ OCULI EAGLE 4D 雷达(79GHz,水平 ±56°)+ GPS/IMU + C-V2X 通信单元
    • 4D 雷达提供稀疏点云 + 多普勒信息,对恶劣天气具有天然鲁棒性
  2. 数据同步与标定

    • 时间同步:所有计算机时钟先与 GPS 时间对齐,再通过 PTP + PPS 信号实现硬件触发同步,车端与路侧传感器时间差控制在 20ms 以内
    • 空间标定:相机内参用棋盘格标定;LiDAR-相机外参用 100 个 2D-3D 点对最小化重投影误差;LiDAR-4D 雷达用角反射器上的高强度点对标定
    • 车路配准:初始配准基于 RTK 定位,再用 CBM 算法和人工调整精细化
  3. 数据标注与质量控制

    • 自动标注 + 人工精修流程,多轮质量检查
    • 五个类别:行人、骑行者、小轿车、公交车、卡车
    • 协同标注:车端和路侧标注分别在各自 LiDAR 坐标系生成,统一到路侧坐标系后用 IoU 匹配去重
    • 隐私保护:模型检测 + 人工逐帧检查,匿名化所有路名、定位数据、车牌、人脸

损失函数 / 训练策略

作为数据集论文,V2X-Radar 不涉及新的训练策略,但提供了三种融合策略的基准实验: - Early Fusion:合并原始点云后统一检测 - Late Fusion:各方独立检测后 NMS 合并 - Intermediate Fusion:各方提取中间特征后传输融合(F-Cooper, V2X-ViT, CoAlign, HEAL)

实验关键数据

主实验

路侧 3D 目标检测 (V2X-Radar-I):

方法 模态 Vehicle AP@0.7 (Easy) Pedestrian AP@0.5 (Easy) Cyclist AP@0.5 (Easy)
PV-RCNN LiDAR 88.83 77.13 91.82
CenterPoint LiDAR 86.44 67.90 90.26
BEVHeight++ Camera 48.48 33.05 45.19
RPFA-Net 4D Radar 64.79 51.64 45.86

单车 3D 目标检测 (V2X-Radar-V):

方法 模态 Vehicle AP@0.7 (Easy) Pedestrian AP@0.5 (Easy) Cyclist AP@0.5 (Easy)
PV-RCNN LiDAR 88.27 67.04 89.48
BEVHeight++ Camera 17.47 10.43 12.99
RPFA-Net 4D Radar 42.77 11.51 17.03

消融实验

协同感知 vs 单车感知(车辆类别,AP@0.5):

配置 Overall 0-30m 30-50m 50-100m 说明
No Fusion (Camera) 6.76 9.41 5.16 2.27 单相机极弱
Late Fusion (Camera) 32.88 40.58 30.37 20.00 协同大幅提升
V2X-ViT (LiDAR, Sync) ~85+ ~90+ ~80+ ~60+ 中间融合最优
V2X-ViT (LiDAR, Async) 降低 - - - 通信延迟显著影响性能

关键发现

  • LiDAR 最强,4D Radar 优于相机:在路侧检测中,4D Radar (RPFA-Net, 64.79%) 虽远低于 LiDAR (PV-RCNN, 88.83%),但显著优于相机 (BEVHeight++, 48.48%)
  • 车端相机性能急剧下降:单视角车端相机 (17.47%) 远低于多视角路侧相机 (48.48%),凸显视角覆盖的重要性
  • 协同感知大幅提升:相比单车感知,所有协同方法均显著提升性能
  • 通信延迟是关键挑战:异步设置 (100ms 延迟) 下所有方法性能明显下降,尤其在严格 IoU=0.7 阈值下
  • 每样本标注数最高可达 90:远超 KITTI/nuScenes 等单车数据集(约 10-30),体现协同感知的环境理解提升

亮点与洞察

  • 填补了 V2X 领域 4D 雷达数据集的空白,这对恶劣天气下的安全驾驶至关重要
  • 数据采集跨越 9 个月,覆盖晴/雨/雾/雪、昼/黄昏/夜多种条件,场景多样性优于同类数据集
  • 严格的时间同步(<20ms)和空间标定流程保证了数据质量
  • 三个子数据集设计支撑多种研究方向,增强了数据集的通用性

局限与展望

  • 数据规模相对有限(20K 帧),与 nuScenes (40K) 或 Waymo (200K+) 仍有差距
  • 仅包含一辆车和一个路侧单元的 V2I 场景,未涵盖 V2V 或多路侧协同
  • 4D 雷达点云极其稀疏(车辆平均仅几十个点),现有方法直接应用效果有限
  • 标注仅包含 3D 框,未提供语义分割、跟踪 ID 等更丰富的标注
  • 车端仅一个前视相机,限制了环视感知算法的适用性

相关工作与启发

  • 与 DAIR-V2X 的关系:DAIR-V2X 是真实 V2I 数据集但无 4D 雷达;V2X-Radar 增加了 4D 雷达模态
  • 与 K-Radar/Dual-Radar 的关系:这些是单车 4D 雷达数据集;V2X-Radar 将 4D 雷达引入协同感知
  • 启发:4D 雷达在协同感知中的潜力尚未充分发掘,特别在多模态融合(雷达+LiDAR+相机)和恶劣天气鲁棒性方面有广阔研究空间

评分

  • 新颖性: ⭐⭐⭐⭐ 首个 V2X 4D 雷达数据集,填补重要空白
  • 实验充分度: ⭐⭐⭐⭐ 三个子集 × 多种检测方法 × 同步/异步设置
  • 写作质量: ⭐⭐⭐⭐ 数据集论文标准写法,细节翔实
  • 价值: ⭐⭐⭐⭐ 对推动 4D 雷达在协同感知中的研究有重要意义