HOT3D: Hand and Object Tracking in 3D from Egocentric Multi-View Videos¶
会议: CVPR 2025
arXiv: 2411.19167
代码: https://facebookresearch.github.io/hot3d
领域: 3D视觉
关键词: 手物交互, 自中心多视角, 3D手部追踪, 6DoF物体位姿, 数据集基准
一句话总结¶
Meta 发布 HOT3D,首个基于真实头戴设备(Project Aria + Quest 3)的大规模自中心多视角手物交互数据集,包含 833 分钟 370 万+图像、19 名受试者与 33 个物体的交互,并通过实验证明多视角方法在 3D 手部追踪、6DoF 物体位姿估计等任务上显著优于单视角方法。
研究背景与动机¶
-
领域现状:视觉系统对手物交互的自动理解在 AR/VR、机器人技能迁移、情境 AI 助手等场景中具有广泛应用价值。现有数据集主要分为三类:纯手部数据集(InterHand2.6M、FreiHAND 等)、纯物体数据集(BOP 基准如 YCB-V、T-LESS 等)、以及手物联合数据集(HO-3D、DexYCB、ARCTIC、HOI4D 等)。
-
现有痛点:(1) 几乎没有数据集提供用真实头戴设备录制的、硬件同步的多视角自中心视频流。现有数据集要么是外中心的(依赖外部摄像头),要么是单视角的,要么使用简陋的头盔模拟器(如 ARCTIC 用头盔装相机)。(2) 真实 AR/VR 设备(如 Quest 3)天然配备多个相机,多视角方法的潜力尚未被充分探索。(3) 现有手物交互场景大多是简单的抓取/放下,缺乏日常生活中的复杂操作场景。
-
核心矛盾:多视角自中心视觉是当前 AR/VR 设备的标配能力,但学术界缺乏相应的大规模高质量数据集来推动这个重要方向的研究。
-
本文目标 发布一个专为多视角自中心手物交互研究设计的数据集,并展示多视角方法相对于单视角方法的显著优势。
-
切入角度:使用 Meta 的两款真实头显(Aria 和 Quest 3),在光学运动捕捉实验室中录制高质量标注数据,同时涵盖简单和复杂的日常交互场景。
-
核心 idea:用真实 AR/VR 头显 + 光学动捕系统构建首个大规模多视角自中心手物交互基准,并证明多视角方法的显著优势。
方法详解¶
整体框架¶
HOT3D 的构建包括数据录制、标注、基准设计三个部分。录制使用 Project Aria(1个 RGB + 2个灰度相机)和 Quest 3(2个灰度相机),在配备光学动捕系统的实验室中采集。标注通过运动捕捉系统获取手部和物体的高精度 3D 位姿。基准实验聚焦三个任务:3D 手部追踪、基于模型的 6DoF 物体位姿估计、以及手持未知物体的 3D 提取。
关键设计¶
-
数据集设计与构建:
- 功能:提供多视角、硬件同步、高质量标注的自中心手物交互数据
- 核心思路:833 分钟录制 → 150 万+多视角帧(370 万+图像),所有图像流通过硬件触发器同步(30 fps)。19 名受试者在 4 种日常场景(inspection、厨房、办公室、客厅)中与 33 个物体交互。物体 3D 模型通过内部扫描管线获取,包含高分辨率几何和 PBR 材质。手部标注提供 UmeTrack 和 MANO 两种格式。Aria 还额外提供 SLAM 点云和眼动追踪信号。数据集划分为训练集(13 名受试者,1M 帧)和测试集(6 名受试者,0.5M 帧),其中 116 万帧通过了完整标注质量审查。还额外提供 3832 个 curated clips(每个 150 帧/5 秒)用于便捷基准评测。
- 设计动机:使用真实头显设备确保了数据的实用性和代表性。硬件同步解决了多视角时间对齐问题。多样化的场景和物体确保了数据集的泛化能力。光学动捕相比 RGB-D 优化方法提供了更高精度的标注。
-
多视角 UmeTrack 手部追踪基准:
- 功能:评估多视角 vs 单视角 3D 手部追踪的性能差异
- 核心思路:使用 UmeTrack 手部追踪器在三种数据组合上训练:仅 UmeTrack 数据集(Quest 2)、仅 HOT3D-Quest3、以及两者联合。训练时随机遮蔽其中一个视角以提高鲁棒性。评估指标为 3D 关键点位置的平均误差(MKPE)。结果显示:联合训练后双视角模式达到 9.5/10.9 mm MKPE,比单视角模式的 13.4/15.4 mm 分别提升了 41% 和 29%。
- 设计动机:多数手部追踪方法只在单视角上进行评估,但 AR/VR 设备天然具有多相机,多视角方法的潜力需要被量化。
-
多视角 FoundPose 6DoF 物体位姿估计:
- 功能:评估多视角对 training-free 物体位姿估计的提升效果
- 核心思路:扩展 FoundPose 方法至多视角——在推理时从所有可用视角裁剪物体图像,用所有视角的 DINOv2 特征匹配建立多视角 2D-3D 对应关系,通过广义 PnP 问题联合求解位姿。结果在 5cm/5° 阈值下,Aria 3视角的 recall 从 25.2% 提升到 33.8%(+34%),Quest3 2视角从 28.9% 提升到 36.9%(+28%)。
- 设计动机:多视角不仅提供了更多的几何约束,还能观察到单视角中被严重遮挡的物体区域。DINOv2 作为骨干使方法能跨不同传感器(RGB/灰度)泛化。
损失函数 / 训练策略¶
作为数据集论文,本文的重点不在损失函数设计而在数据集构建和基准实验。手部追踪使用 UmeTrack 的原始训练流程。物体位姿估计基于 FoundPose 的 training-free pipeline(DINOv2 特征匹配 + PnP-RANSAC)。3D lifting 使用 DINOv2 立体匹配预测手持物体点云深度。
实验关键数据¶
主实验¶
3D 手部追踪(表2,MKPE↓, mm):
| 训练数据 | 视角数 | UmeTrack 测试集 | HOT3D 测试集 |
|---|---|---|---|
| UmeTrack | 1 | 13.6 | 24.2 |
| UmeTrack | 2 | 9.7 | 25.6 |
| UmeTrack + HOT3D | 1 | 13.4 | 15.4 |
| UmeTrack + HOT3D | 2 | 9.5 | 10.9 |
6DoF 物体位姿估计(表3,Recall↑, %):
| 测试数据 | 视角数 | 5cm/5° | 10cm/10° | 20cm/20° |
|---|---|---|---|---|
| HOT3D-Aria | 1 | 25.2 | 41.7 | 54.5 |
| HOT3D-Aria | 3 | 33.8 | 52.9 | 66.2 |
| HOT3D-Quest3 | 1 | 28.9 | 46.6 | 58.9 |
| HOT3D-Quest3 | 2 | 36.9 | 55.9 | 66.4 |
消融实验¶
跨数据集域差异分析(表2):
| 训练数据 | 视角 | UmeTrack MKPE | HOT3D MKPE | 说明 |
|---|---|---|---|---|
| UmeTrack only | 1 | 13.6 | 24.2 | 手物交互场景域差异 |
| HOT3D only | 1 | 23.7 | 18.0 | 手手交互场景域差异 |
| 联合训练 | 1 | 13.4 | 15.4 | 域差距被有效弥合 |
| 联合训练 | 2 | 9.5 | 10.9 | 多视角进一步提升 41% |
关键发现¶
- 多视角的提升是显著且一致的:手部追踪双视角相比单视角改善 29-41%,物体位姿估计多视角相比单视角改善 13-34%。这对低功耗自中心视觉系统设计有重要意义——多相机(低成本)比主动深度传感器(高功耗)更适合 AR 眼镜。
- 数据集联合训练可有效弥合域差距:单独在 UmeTrack 上训练的模型在 HOT3D 上表现很差(24.2 mm),反之亦然(23.7 mm)。联合训练后两边都大幅改善,说明手物交互和手手交互的数据是互补的。
- FoundPose 在灰度图像上也能工作:得益于 DINOv2 的强大泛化能力,即使 Quest 3 只有灰度相机也能达到不错的位姿估计精度。
- 物体的"旅行距离"统计(图4)是一个有趣的数据集特征分析,反映了不同物体被操作的频率和方式差异。
亮点与洞察¶
- 首个真实头显的多视角自中心数据集:与使用 RGB-D 相机或头盔模拟器的数据集不同,HOT3D 使用了实际发货的消费级 VR 头显(Quest 3)和研究级 AR 眼镜原型(Aria),数据分布更接近真实应用场景。
- "多视角方法的潜力被低估":这个结论对 AR/VR 设备设计有直接影响——多相机 setup 不仅便宜且节能,其带来的性能提升可能使主动深度传感器变得不必要。
- PBR 材质的 3D 物体模型:支持物理真实渲染,可用于合成训练数据,是数据集的独特优势。
- 物体入门序列(onboarding sequences):支持 model-free 追踪方法的评测,包括静态和动态两种设置,设计周到。
局限与展望¶
- 数据集仅限刚性物体,缺乏对柔性/铰接物体的支持(ARCTIC 支持铰接物体)。
- 所有录制在同一个实验室完成,背景多样性有限(通过随机化家具/灯光部分缓解)。
- 标注依赖光学标记物,贴在手和物体上的标记物可能影响自然交互和外观。
- 测试集标注不公开发布,需要通过专用评估服务器提交结果,增加了使用门槛。
- 未包含双手协同操作重物等需要更复杂力学理解的场景。
- Quest 3 只有灰度相机,缺少 RGB 图像可能限制某些方法的适用性。
相关工作与启发¶
- vs ARCTIC: ARCTIC 有更多铰接物体但只有 1 个模拟自中心视角(头盔装相机),且不支持真正的消费级设备。HOT3D 使用真实头显且有原生多视角。
- vs HOI4D: HOI4D 有 800 种物体和多样环境,但是单视角自中心 RGB-D,且标注来自 RGB-D 优化(精度较低)。HOT3D 的光学动捕标注精度更高。
- vs DexYCB: DexYCB 只有外中心视角和近静态抓取,缺乏动态操作场景。HOT3D 涵盖了厨房、办公室等复杂操作。
- vs HO-Cap: 唯一用真实头显(HoloLens)的手物数据集,但标注精度依赖 RGB-D 优化,远低于 HOT3D 的光学动捕精度。
评分¶
- 新颖性: ⭐⭐⭐⭐ 首个真实头显多视角自中心手物数据集,填补了领域空白;方法(多视角扩展)较为直接
- 实验充分度: ⭐⭐⭐⭐ 三个任务的多/单视角对比清晰,跨数据集泛化实验有说服力,但物体位姿方法较简单
- 写作质量: ⭐⭐⭐⭐⭐ 数据集论文标杆写法,与现有数据集的对比表格非常全面,统计分析详尽
- 价值: ⭐⭐⭐⭐⭐ 对 AR/VR 领域有直接且重要的推动作用,证明了多视角方法的价值,数据集将被广泛使用