跳转至

📹 视频理解

🎞️ ECCV2024 · 51 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (11) · 📷 CVPR2026 (92) · 🔬 ICLR2026 (24) · 🤖 AAAI2026 (33) · 🧠 NeurIPS2025 (61) · 📹 ICCV2025 (58)

🔥 高频主题: 目标跟踪 ×12 · 人体姿态 ×4 · 对齐/RLHF ×3 · 自监督学习 ×2 · 推理 ×2

ActionSwitch: Class-agnostic Detection of Simultaneous Actions in Streaming Videos

提出 ActionSwitch——首个无需类别信息即可检测流式视频中重叠动作实例的在线时序动作定位(On-TAL)框架,核心将多动作检测建模为有限状态机的状态分类问题,并辅以 conservativeness loss 减少碎片化误检,在 THUMOS14、FineAction、Epic-Kitchens 100 等数据集上在 OAD 扩展方法中达到 SOTA。

Adapt2Reward: Adapting Video-Language Models to Generalizable Robotic Rewards via Failure Prompts

提出 Adapt2Reward,通过可学习的失败提示(failure prompts)将预训练视频语言模型适配为可泛化的语言条件奖励函数,仅需少量单一环境的机器人数据即可泛化到新环境和新任务,在 MetaWorld 上比前方法高出约 28%。

AMEGO: Active Memory from Long EGOcentric Videos

提出 AMEGO,一种从长第一人称视频中在线构建结构化"活跃记忆"的方法,通过 HOI tracklet + 位置分段 + 语义无关的视觉查询,在新提出的 AMB benchmark 上超越 Video QA baselines 12.7%。

Bayesian Evidential Deep Learning for Online Action Detection

本文提出 BEDL(Bayesian Evidential Deep Learning)框架,通过贝叶斯教师-证据学生架构,在在线动作检测任务中实现了准确高效的推理与可靠的不确定性量化,并设计了基于贝叶斯互信息的注意力模块用于主动特征选择。

Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects

基于 HANDS23 挑战赛(AssemblyHands + ARCTIC 数据集),系统性地对第一人称视角下手-物体交互的 3D 姿态估计方法进行了基准测试和深入分析,揭示了畸变校正、高容量 Transformer 和多视角融合的有效性,以及快速运动、遮挡和窄视角下物体重建等仍未解决的挑战。

Boosting 3D Single Object Tracking with 2D Matching Distillation and 3D Pre-training

本文提出了一个统一的3D单目标跟踪(SOT)框架,通过3D生成式预训练和2D预训练基础跟踪器的匹配知识蒸馏,解决了点云数据稀缺和LiDAR扫描稀疏不完整的问题,在KITTI、Waymo和nuScenes上达到SOTA性能。

Classification Matters: Improving Video Action Detection with Class-Specific Attention

提出类别专属查询(class queries)机制,通过为每个动作类别分配独立的可学习查询,让模型动态关注与各类别相关的上下文区域,显著提升视频动作检测中的分类性能。

CrossGLG: LLM Guides One-Shot Skeleton-Based 3D Action Recognition in a Cross-Level Manner

提出CrossGLG框架,利用LLM生成的文本描述以"全局→局部→全局"的方式引导骨架特征学习,在单样本3D动作识别中以仅2.8%的SOTA模型参数量大幅超越对手。

Data Collection-Free Masked Video Modeling

提出基于伪运动生成器(PMG)从静态图像递归生成伪运动视频,结合掩码视频建模(VideoMAE)进行自监督预训练,完全摆脱真实视频数据的采集成本和隐私/版权顾虑,甚至可用合成图像实现有效的视频Transformer预训练。

DINO-Tracker: Taming DINO for Self-Supervised Point Tracking in a Single Video

提出DINO-Tracker,将预训练DINOv2的语义特征与测试时单视频优化相结合,通过Delta-DINO残差微调和多源自监督损失实现长程稠密点追踪,在自监督方法中达到SOTA且可媲美有监督追踪器,尤其在长期遮挡场景中大幅领先。

Efficient Few-Shot Action Recognition via Multi-Level Post-Reasoning

EMP-Net 提出了一种高效多层级后推理网络,通过后推理机制避免大部分梯度回传来降低 CLIP 在小样本动作识别中的领域对齐开销,同时利用多层级表示(全局、patch、帧级别)提升特征判别力,在效率和性能之间取得了最优平衡。

EgoPoser: Robust Real-Time Egocentric Pose Estimation from Sparse and Intermittent Observations Everywhere

提出 EgoPoser,仅从头显设备的头部和手部稀疏且间歇性追踪信号中,鲁棒地估计全身姿态,通过全局运动分解、真实视野建模、SlowFast时序融合和体型感知优化四大核心设计,在大规模真实场景中实现SOTA性能,推理速度超600fps。

Evaluating Text-to-Visual Generation with Image-to-Text Generation

提出VQAScore,利用VQA模型替代CLIP来评估文本-视觉生成质量,在复杂组合性提示上大幅超越CLIPScore,并发布GenAI-Bench基准。

Exploring the Feature Extraction and Relation Modeling For Light-Weight Transformer Tracking

本文提出FERMT(Feature Extraction and Relation Modeling Tracker),通过将one-stream tracker中的注意力机制分解为四个功能不同的子模块——浅层专注特征提取、深层专注关系建模——并引入双注意力单元进行特征预处理,在GOT-10k上以69.6%的AO分数超越领先实时跟踪器5.6%,同时CPU速度提升54%。

FinePseudo: Improving Pseudo-Labelling through Temporal-Alignability for Semi-Supervised Fine-Grained Action Recognition

提出 FinePseudo 框架,利用基于时序对齐性(temporal alignability)的度量学习来改善伪标签质量,首次系统性地解决半监督细粒度动作识别问题,在四个细粒度数据集上显著超越现有方法。

Goldfish: Vision-Language Understanding of Arbitrarily Long Videos

提出 Goldfish 框架,通过将长视频分割为短 clip 并利用基于文本相似度的检索机制选取与问题最相关的 top-k 片段,实现对任意长度视频的高效理解,同时提出 MiniGPT4-Video 短视频模型和 TVQA-long 长视频评测基准。

HAT: History-Augmented Anchor Transformer for Online Temporal Action Localization

提出HAT——首个在Online Temporal Action Localization(OnTAL)中引入长期历史上下文的anchor-based Transformer框架,通过动作预期引导的历史压缩和未来驱动的历史精炼,在程序性自我中心数据集(EGTEA/EK100)上显著超越OAT,在标准数据集(THUMOS/MUSES)上达到可比或更优性能。

IAM-VFI: Interpolate Any Motion for Video Frame Interpolation with Motion Complexity Map

提出IAM-VFI框架,通过引入运动复杂度图(Motion Complexity Map)来感知局部运动的难度级别,对不同复杂度区域自适应分配计算资源和处理策略,实现对任意运动模式的鲁棒视频帧插值。

LayeredFlow: A Real-World Benchmark for Non-Lambertian Multi-Layer Optical Flow

提出 LayeredFlow——首个包含多层光流标注的真实世界非朗伯体基准数据集(150k 光流对,185 个场景,360 个物体),并提出多层光流任务定义、大规模合成训练数据集和基于 RAFT 的多层光流基线方法。

Leveraging Temporal Contextualization for Video Action Recognition

提出 TC-CLIP 框架,通过时序上下文化(TC) 机制将全局视频动作线索压缩为少量 context tokens 注入 CLIP 编码过程,并设计视频条件提示(VP) 模块将视觉信息注入文本端,在零样本、小样本、base-to-novel 和全监督四种设定下全面超越现有 CLIP-based 视频识别方法。

Local All-Pair Correspondence for Point Tracking

本文提出LocoTrack,通过局部4D相关性体(local 4D correlation)实现视频中任意点的全对应匹配,结合轻量级相关性编码器和长度可泛化的Transformer,在所有TAP-Vid基准测试上达到最高精度,同时比SOTA方法快近6倍。

Masked Video and Body-worn IMU Autoencoder for Egocentric Action Recognition

提出 EVI-MAE,首个联合第一人称视频与身体穿戴 IMU 的多模态表示学习方法,通过 MAE 自监督预训练学习视频-IMU 跨模态对齐,并用图神经网络建模多 IMU 设备间的协同运动关系,在动作识别中取得 SOTA 且具备优秀的鲁棒性。

Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation

本文提出一种将非线性运动先验(轨迹参数函数)引入对比度最大化框架的自监督方法,用于事件相机的稠密连续时间运动估计,在真实世界数据集 EVIMO2 上将合成数据预训练模型的零样本性能提升了 29%。

Nymeria: A Massive Collection of Multimodal Egocentric Daily Motion in the Wild

提出 Nymeria 数据集——目前最大规模的野外多模态自我中心人体日常运动数据集,包含 300 小时、264 人、50 个场景,提供全身精确动作捕捉、多设备同步多模态数据和 310.5K 句分层语言描述,并在 body tracking、motion synthesis 等任务上建立 baseline。

Occluded Gait Recognition with Mixture of Experts: An Action Detection Perspective

本文从动作检测的视角重新审视遮挡步态识别问题,提出GaitMoE方法通过时序专家混合(MTE)自适应构建动作锚点和动作专家混合(MAE)生成动作提议,仅使用ID标签进行端到端训练即可有效应对各种遮挡场景,并构建了首个统一的遮挡步态数据库OccGait。

On the Utility of 3D Hand Poses for Action Recognition

提出 HandFormer,一种轻量级多模态 Transformer,将密集采样的 3D 手部姿态(捕捉细粒度动作)与稀疏采样的 RGB 帧(提供场景语义)结合,通过 micro-action 时序分解和 trajectory 编码高效建模手-物交互,在 Assembly101 和 H2O 上达到 SOTA,且纯 pose 模型以 5× 更少 FLOPs 超越已有骨架方法。

OneTrack: Demystifying the Conflict Between Detection and Tracking in End-to-End 3D Trackers

本文深入分析了端到端3D跟踪器中检测与跟踪任务之间性能冲突的根本原因——二者在正样本分配上的微妙差异导致了分类梯度的矛盾,并提出OneTrack通过梯度协调、查询分组和注意力掩码等策略,首次实现了检测和跟踪在统一特征表示下的无冲突联合优化,在nuScenes上取得了SOTA性能。

Optimizing Factorized Encoder Models: Time and Memory Reduction for Scalable and Efficient Action Recognition

本文通过冻结 ViViT 因子化编码器中的空间 Transformer 并引入合理的时间 Transformer 初始化策略和紧凑的适配器模块,在保持甚至略微提升精度的同时大幅降低了训练成本和内存消耗,为资源受限的研究者提供了更高效的动作识别训练方案。

PiTe: Pixel-Temporal Alignment for Large Video-Language Model

提出 PiTe 模型,通过物体运动轨迹在像素级别实现视频与语言的时空对齐,构建 PiTe-143k 数据集,在零样本 QA、时序定位和密集描述任务上大幅超越现有方法。

PiTe: Pixel-Temporal Alignment for Large Video-Language Model

提出 PiTe,一种通过物体轨迹引导的像素-时序对齐方法,利用自动构建的 PiTe-143K 数据集在空间和时间维度上实现视频与语言的精细对齐,显著提升视频理解能力。

R²-Tuning: Efficient Image-to-Video Transfer Learning for Video Temporal Grounding

提出 R²-Tuning,通过在冻结 CLIP 的后几层反向递归附加轻量 R² Block(仅 1.5% 总参数),实现查询调制的空间池化和粗到细的时序精炼,在 6 个 VTG 基准 3 个任务上以 2.7M 参数超越了需要额外时序骨干网络的 SOTA 方法。

Referring Atomic Video Action Recognition

提出"基于文本引用的原子视频动作识别"(RAVAR)新任务和 RefAVA 数据集(36,630 实例),以及 RefAtomNet 方法,通过跨流 agent 注意力融合视觉、文本和位置-语义三路 token,在 mAP 上比最佳基线 BLIPv2 提升 3.85%/3.17%。

Rethinking Video-Text Understanding: Retrieval from Counterfactually Augmented Data

提出反事实增强数据检索(RCAD)任务和 Feint6K 数据集,揭示 SOTA 视频文本模型在动作语义理解上远落后于人类(InternVideo 58.2% vs 人类 95.2%),并提出 LLM-teacher 通过 LLM 知识蒸馏改善动作嵌入学习。

RGNet: A Unified Clip Retrieval and Grounding Network for Long Videos

提出 RGNet 将长视频时序定位的片段检索和时序定位两个阶段深度统一到单一网络中,通过 RG-Encoder 的稀疏注意力和对比片段采样实现端到端优化,在 MAD 和 Ego4D 上取得 SOTA。

SA-DVAE: Improving Zero-Shot Skeleton-Based Action Recognition by Disentangled Variational Autoencoders

SA-DVAE 首次将特征解耦引入骨架零样本动作识别,通过双头 VAE 将骨架特征分离为语义相关和语义无关两个独立部分,仅用语义相关部分与文本对齐,配合对抗性总相关惩罚增强解耦效果,在 NTU RGB+D 60/120 和 PKU-MMD 三个基准上达到 SOTA。

SAFNet: Selective Alignment Fusion Network for Efficient HDR Imaging

SAFNet 提出选择性对齐融合策略,通过金字塔解码器联合精炼有价值区域掩码和跨曝光光流,仅在有价值区域进行精确对齐后显式融合 HDR 图像,在 Kalantari 17 和自建 Challenge123 数据集上超越 SOTA 的同时推理速度快一个数量级。

SEA-RAFT: Simple, Efficient, Accurate RAFT for Optical Flow

SEA-RAFT 通过混合拉普拉斯损失(MoL)、直接回归初始光流和刚性流预训练三项改进,在保持简洁架构的同时实现了 SOTA 精度,并比现有方法快 2.3× 以上。

Self-Supervised Any-Point Tracking by Contrastive Random Walks

提出 GMRW(Global Matching Random Walk),将全局匹配 Transformer 架构与对比随机游走自监督目标结合,首次在无标注的情况下实现了强劲的"任意点跟踪"(TAP)性能,并设计 label warping 数据增强来避免 Transformer 的捷径解。

SemTrack: A Large-Scale Dataset for Semantic Tracking in the Wild

提出 SemTrack 数据集和 SemTracker 方法,将传统目标跟踪从"定位目标在哪里"扩展到"理解目标在做什么"——跟踪目标的同时捕获其语义轨迹(与谁/什么交互、何时何地如何交互),并引入元学习策略应对长尾交互类别的挑战。

SLAck: Semantic, Location, and Appearance Aware Open-Vocabulary Tracking

SLAck 提出在多目标跟踪的关联阶段早期统一融合语义、位置和外观三种线索,通过轻量级时空目标图(STOG)学习隐式运动先验和跨线索协同,无需后处理启发式规则,在开放词汇 MOT 和 TAO TETA 基准上显著提升新类别跟踪性能。

SPAMming Labels: Efficient Annotations for the Trackers of Tomorrow

提出 SPAM 视频标注引擎,将合成数据预训练、伪标签自训练和基于图层级的主动学习相结合,仅需 3-20% 的人工标注量即可产生接近 GT 质量的多目标跟踪标注。

TAPTR: Tracking Any Point with Transformers as Detection

TAPTR 将 Tracking Any Point (TAP) 任务重新建模为类 DETR 的检测问题,将每个跟踪点表示为包含位置和内容的 point query,通过多层 Transformer 解码器逐层优化,结合 cost volume 和滑动窗口特征更新策略,在 TAP-Vid 基准上达到 SOTA 且推理速度更快。

Text-Guided Video Masked Autoencoder

提出文本引导掩码策略(TGM)利用自然语言描述替代运动先验来掩码视频显著区域,并统一 MAE 与视频-文本对比学习,在五个动作识别和一个自中心数据集上取得最佳相对性能。

TimeCraft: Navigate Weakly-Supervised Temporal Grounded Video Question Answering via Bi-directional Reasoning

本文提出一种双向推理框架TimeCraft来解决弱监督时序定位视频问答(temporal grounded VQA)任务,通过构建两条对称的推理路径(前向:时序定位→回答;反向:回答→时序定位)并用循环一致性约束提供自监督信号,在不需要时序标注的情况下同时定位回答依据的视频片段并给出正确答案。

Towards Model-Agnostic Dataset Condensation by Heterogeneous Models

提出异构模型数据集压缩(HMDC)方法,通过同时使用两个结构不同的模型(如 ConvNet 和 ViT)进行数据集压缩,并设计梯度平衡模块和互蒸馏机制,生成对各种模型普遍适用的压缩图像,解决传统方法过度适配单一模型的问题。

Tracking Meets LoRA: Faster Training, Larger Model, Stronger Performance

首次将 LoRA 引入视觉目标跟踪领域,通过解耦位置编码和设计 MLP-only 头网络,使大规模 ViT 模型(最大 ViT-g)在实验室级资源下实现高效训练和 SOTA 跟踪性能。

Tracking Meets LoRA: Faster Training, Larger Model, Stronger Performance

LoRAT 首次将 LoRA 引入视觉目标跟踪,通过解耦位置编码(共享空间 + 独立类型嵌入)和纯 MLP 检测头两个 LoRA-友好设计,使得在实验室级资源上训练 ViT-g 骨干的跟踪器成为可能,在 LaSOT 上达到 0.762 SUC(新 SOTA),最轻变体 LoRAT-B-224 以 209 FPS 运行。

UniINR: Event-guided Unified Rolling Shutter Correction, Deblurring, and Interpolation

提出 UniINR 框架,利用统一的时空隐式神经表征(INR)从单张卷帘快门模糊帧和配对事件流中,一次性同时完成卷帘快门校正、去模糊和任意帧率的视频帧插值。

Vamos: Versatile Action Models for Video Understanding

提出 Vamos 框架,以大语言模型作为推理器,灵活统一视觉嵌入和通用文本描述作为视频表征,发现纯文本表征在多个视频理解基准上一致性地取得竞争甚至更优性能,并设计 Token Bottleneck Model 实现可解释证据选择与 5 倍推理加速。

VideoMamba: Spatio-Temporal Selective State Space Model

提出基于纯 Mamba 架构的视频识别模型 VideoMamba(KAIST 版),通过设计时空前向-后向 SSM(Spatio-Temporal Forward and Backward SSM)来有效处理视频中非序列空间信息与序列时间信息的复杂交互,以线性复杂度实现了与 Transformer 竞争的性能。

VideoMamba: State Space Model for Efficient Video Understanding

将 Mamba 的选择性状态空间模型创新性地适配到视频领域,提出纯 SSM 架构的 VideoMamba,以线性复杂度实现高效的时空上下文建模,在短视频和长视频理解任务上均展现出优越性能。