跳转至

📹 视频理解

📹 ICCV2025 · 58 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (11) · 📷 CVPR2026 (92) · 🔬 ICLR2026 (24) · 🤖 AAAI2026 (33) · 🧠 NeurIPS2025 (61) · 🧪 ICML2025 (7)

🔥 高频主题: 目标跟踪 ×9 · LLM ×6 · 人体姿态 ×5 · 模型压缩 ×4 · 动态场景 ×3

4D-Bench: Benchmarking Multi-Modal Large Language Models for 4D Object Understanding

4D-Bench 是首个评估多模态大语言模型(MLLM)4D 物体理解能力的基准,包含 4D 物体问答和描述两大任务,揭示了即使 SOTA GPT-4o 也仅达 63% 准确率(人类基线 91%),暴露了当前 MLLM 在多视角时序推理上的显著不足。

4D-Bench: Benchmarking Multi-modal Large Language Models for 4D Object Understanding

本文提出 4D-Bench,首个评估多模态大模型 (MLLM) 在 4D 物体(动态 3D 物体)理解能力的基准,包含 4D 物体问答和 4D 物体描述两大任务,揭示了即使是 GPT-4o 在简单 4D 物体上也仅达 63% 准确率(人类基线 91%),尤其在物体计数和时序理解上表现薄弱。

4D-Bench: Benchmarking Multi-modal Large Language Models for 4D Object Understanding

提出 4D-Bench,首个评估多模态大语言模型对4D物体(具有时间演化的3D物体)理解能力的基准,包含4D物体问答(751 QA对)和4D物体描述(580物体×5标注)两大任务,发现即使SOTA的GPT-4o也仅达63%准确率(人类91%),揭示了MLLM在多视角时空理解上的巨大差距。

Adaptive Hyper-Graph Convolution Network for Skeleton-Based Human Action Recognition

提出 Hyper-GCN,通过自适应非均匀超图替代传统二元图来建模骨骼拓扑,并引入虚拟超关节(hyper joints)创建虚拟连接,使多关节协同关系得以直接建模,在 NTU-60/120 和 NW-UCLA 上以最轻量的 GCN 设计实现 SOTA(base 版仅 1.1M 参数、1.63 GFLOPs)。

Adaptive Hyper-Graph Convolution Network for Skeleton-based Human Action Recognition with Virtual Connections

本文提出 Hyper-GCN,通过自适应非均匀超图卷积和虚拟超节点(hyper joints)的设计,突破了传统 GCN 仅建模关节对之间二元关系的限制,实现了多关节协同语义的高效聚合,在 NTU-60/120 和 NW-UCLA 数据集上以最轻量的 GCN 设计达到了 SOTA 性能。

AIM: Adaptive Inference of Multi-Modal LLMs via Token Merging and Pruning

提出 AIM,一种无需训练的多模态LLM自适应推理方法,通过LLM前基于相似度的视觉token迭代合并和LLM层内基于PageRank重要性的渐进token剪枝,实现6.8倍FLOPs削减同时保持性能,在长视频理解上同等计算量下甚至超越SOTA (+4.6 MLVU)。

AIM: Adaptive Inference of Multi-Modal LLMs via Token Merging and Pruning

提出一种无需训练的自适应推理方法,通过 LLM 前基于嵌入相似度的迭代式 token 合并 + LLM 层内基于 PageRank 多模态重要性的渐进式 token 剪枝,实现多模态 LLM 在 40 倍 FLOPs 减少范围内的灵活精度-效率权衡,在视频和图像理解任务上均取得优异表现。

AIM: Adaptive Inference of Multi-Modal LLMs via Token Merging and Pruning

提出无需训练的自适应推理方法AIM,通过LLM前的迭代token合并(基于嵌入相似度)和LLM层内的渐进式token剪枝(基于PageRank重要性),实现多模态LLM 6.8倍FLOPs降低且几乎不损失性能,在长视频理解上甚至超越SOTA。

Aligning Effective Tokens with Video Anomaly in Large Language Models

提出VA-GPT,通过空间有效Token选择(SETS)和时间有效Token生成(TETG)两个模块,在MLLM中高效对齐与视频异常相关的关键Token,实现对异常事件的精准检测、描述和时间定位。

AllTracker: Efficient Dense Point Tracking at High Resolution

提出AllTracker,将点跟踪重新表述为多帧长程光流问题,在低分辨率网格上通过2D卷积+像素对齐时序注意力迭代优化对应估计再上采样,仅16M参数即实现SOTA准确率和高分辨率(768×1024)全像素密集跟踪,跟踪速度接近光流方法。

An Empirical Study of Autoregressive Pre-training from Videos

系统性地研究了从视频进行自回归预训练的方法(称为Toto),在超过1万亿视觉token上训练因果Transformer,发现尽管归纳偏置极少,自回归预训练在图像识别、视频分类、目标跟踪和机器人操控等多个下游任务上均具有竞争力,且展现出类似语言模型的缩放规律(但速率较慢)。

Attention to Trajectory: Trajectory-Aware Open-Vocabulary Tracking

本文提出TRACT,一种利用轨迹级信息增强开放词汇多目标跟踪(OV-MOT)的方法,通过轨迹一致性强化(TCR)改善关联、通过轨迹特征聚合(TFA)和轨迹语义丰富(TSE)改善分类,在OV-TAO基准上显著提升了跟踪性能,尤其是分类准确率。

Beyond Label Semantics: Language-Guided Action Anatomy for Few-shot Action Recognition

提出 Language-Guided Action Anatomy (LGA) 框架,利用大语言模型将动作标签解剖为原子级动作描述(主体-动作-对象三要素),同时在视频端通过聚类分割将帧序列划分为对应的原子动作阶段,在原子级别进行多模态融合和匹配,显著提升小样本动作识别性能。

Beyond the Frame: Generating 360° Panoramic Videos from Perspective Videos

提出 Argus 模型,首次实现从普通透视视频生成完整 360° 全景视频,通过相机运动模拟、视角对齐帧校准和混合解码三大几何-运动感知技术,在基于扩散模型的框架上让生成的全景视频具备空间一致性和时序连贯性。

BlinkTrack: Feature Tracking over 80 FPS via Events and Images

提出 BlinkTrack,将可微卡尔曼滤波引入学习框架,有效解决事件相机和传统相机异步数据的关联与不确定性感知融合,实现超过 80 FPS 的高帧率特征跟踪,并在遮挡场景中显著优于现有方法。

Breaking the Encoder Barrier for Seamless Video-Language Understanding

提出 ELVA,首个无编码器(encoder-free)的视频大语言模型,通过层级 token 合并、视频引导监督和混合分辨率推理机制,仅用 7M 公开视频-文本对数据即可达到与有编码器架构相当的性能,同时将 FLOPs 降低 95%、推理延迟降低 92%。

DeSPITE: Exploring Contrastive Deep Skeleton-PointCloud-IMU-Text Embeddings for Action Recognition

DeSPITE 提出了一种隐私保护的多模态对比预训练模型,将 LiDAR 点云、骨架姿态、IMU 和文本四种模态对齐到统一嵌入空间,实现了跨模态匹配、检索以及人体活动识别的预训练范式。

DisTime: Distribution-based Time Representation for Video Large Language Models

提出DisTime框架,通过一个可学习的时间token和基于分布的时间解码器,在Video-LLM中实现连续时间表示,配合大规模自动标注数据集InternVid-TG(125万事件),在时刻检索、密集视频描述、Grounded-VQA三类时间敏感任务上达到SOTA。

DynImg: Key Frames with Visual Prompts are Good Representation for Multi-Modal Video Understanding

DynImg 提出了一种新颖的视频表示方法,将非关键帧作为"时序视觉提示"叠加在关键帧下方形成动态图像,在视觉编码器内部实现细粒度时空交互(而非高层token级交互),配合4D旋转位置编码维护正确的时空序列关系,在多个视频理解基准上以更少的视觉token超越SOTA约2%。

EgoAdapt: Adaptive Multisensory Distillation and Policy Learning for Efficient Egocentric Perception

提出 EgoAdapt 框架,将跨模态蒸馏与策略学习联合训练,自适应选择最优模态组合,在自我中心感知任务中实现最高 89% GMACs 缩减的同时保持与 SOTA 持平甚至更优的性能。

egoPPG: Heart Rate Estimation from Eye-Tracking Cameras in Egocentric Systems to Benefit Downstream Vision Tasks

提出egoPPG这一新的自中心视觉任务,通过PulseFormer方法从未修改的自中心头戴设备的眼部追踪摄像头估计心率(MAE=7.67 bpm),并证明心率估计在EgoExo4D的技能水平评估下游任务中可提升14.1%的准确率。

EMoTive: Event-Guided Trajectory Modeling for 3D Motion Estimation

本文提出 EMoTive,一个基于事件相机的 3D 运动估计框架,通过 Event Kymograph 编码精细时序演化信息,并使用事件密度引导的非均匀 NURBS 参数曲线建模时空轨迹,从轨迹中导出光流和深度运动场,在自建 CarlaEvent3D 数据集和真实世界基准上取得 SOTA 性能。

Factorized Learning for Temporally Grounded Video-Language Models

提出D2VLM框架,通过将视频理解分解为"先定位证据再基于证据生成回答"的范式,引入证据token捕捉事件级视觉语义,并设计分解式偏好优化(FPO)同时提升时序定位和文本回答能力。

Fine-grained Spatiotemporal Grounding on Egocentric Videos

提出 EgoMask,首个面向自我中心视频的像素级时空定位基准,包含短/中/长时视频评测集和大规模训练集 EgoMask-Train,通过系统分析揭示了自我中心与外中心视频之间的关键差异,并证明微调后模型性能可大幅提升。

Flow4Agent: Long-form Video Understanding via Motion Prior from Optical Flow

Flow4Agent 首次将光流运动先验引入 LLM-based 视频理解,通过时域粒度优化(TGO)利用粗粒度光流聚类视频事件并用语义先验过滤冗余场景,通过运动 Token 剪枝(MTP)利用细粒度光流去除帧内静态冗余 token,在 VideoMME/MLVU/LongVideoBench 等长视频基准上取得领先表现。

FlowSeek: Optical Flow Made Easier with Depth Foundation Models and Motion Bases

FlowSeek 将深度基础模型(Depth Anything V2)的先验知识和经典的低维运动参数化(motion bases)融入光流网络,在仅使用单张消费级 GPU 训练的条件下即可实现 SOTA 的跨数据集泛化性能。

Frequency-Semantic Enhanced Variational Autoencoder for Zero-Shot Skeleton-based Action Recognition

本文提出 FS-VAE(Frequency-Semantic Enhanced Variational Autoencoder),通过频率分解增强骨骼语义学习、多层级语义对齐弥合视觉-文本鸿沟、以及校准交叉对齐损失缓解对齐歧义,实现了零样本骨骼动作识别的显著性能提升。

General Compression Framework for Efficient Transformer Object Tracking

提出 CompressTracker,一个通用 Transformer 跟踪器压缩框架,通过阶段划分、替换训练和特征模仿三个递进创新,实现结构无关的高效压缩——压缩 SUTrack 后保持约 99% 精度同时加速 2.42 倍。

HERMES: temporal-coHERent long-forM understanding with Episodes and Semantics

提出 HERMES 框架,通过情景压缩器 (ECO) 和语义检索器 (SeTR) 两个通用模块分别捕获视频的情景记忆和语义信息,既可作为独立系统达到 SOTA,也可即插即用地增强现有视频语言模型,同时降低推理延迟达 43% 和内存消耗达 46%。

Hierarchical Event Memory for Accurate and Low-latency Online Video Temporal Grounding

针对在线视频时序定位(OnVTG)任务,提出层级事件记忆机制存储不同时间尺度的历史事件信息,结合基于段树结构的事件提议和未来预测分支,在TACoS、ActivityNet Captions和MAD三大数据集上实现了SOTA的定位精度和低延迟预测。

Learning to Generalize Without Bias for Open-Vocabulary Action Recognition

本文提出 Open-MeDe,一个基于元学习的开放词汇动作识别框架,通过跨批次元优化模拟"已知到开放"的泛化任务,并结合高斯自集成稳定化策略,在不依赖 CLIP 正则化的情况下同时提升上下文内和上下文外场景的泛化能力。

MEMFOF: High-Resolution Training for Memory-Efficient Multi-Frame Optical Flow Estimation

MEMFOF 是首个面向显存效率的多帧光流方法,通过降低相关体积分辨率并引入高分辨率训练策略,在 1080p 推理仅需 2.09GB 显存的同时在 Spring、Sintel、KITTI 等基准上达到 SOTA 精度。

MikuDance: Animating Character Art with Mixed Motion Dynamics

提出 MikuDance,一种基于扩散模型的角色艺术动画系统,通过 Mixed Motion Modeling(将角色运动和 3D 相机运动统一到像素空间表示)和 Mixed-Control Diffusion(在 Reference UNet 中隐式对齐角色形状/尺度与运动引导),实现了复杂角色画作的高动态动画生成。

MIORe & VAR-MIORe: Benchmarks to Push the Boundaries of Restoration

提出 MIORe 和 VAR-MIORe 两个多任务运动复原基准数据集,使用 1000fps 工业级相机和专业镜头阵列采集,涵盖从极微到极端的全运动幅度谱,通过自适应帧平均机制生成一致运动模糊,为去模糊、帧插值和光流估计提供统一评估平台。

MobileViCLIP: An Efficient Video-Text Model for Mobile Devices

将时空结构重参数化引入高效图像-文本模型MobileCLIP,在大规模视频-文本数据集上训练,得到可在移动端运行的视频-文本模型MobileViCLIP,在零样本检索和动作识别上取得与大模型相当的性能。

Moment Quantization for Video Temporal Grounding

提出 MQVTG,首次将向量量化引入视频时序定位任务,通过时刻码本和软量化将视频片段映射为离散向量,增强前景/背景的区分度,在 6 个基准上取得 SOTA。

Multi-modal Multi-platform Person Re-Identification: Benchmark and Method

提出首个多模态多平台行人重识别基准 MP-ReID(含 RGB、红外、热成像三种模态 + 地面和无人机两种平台)和统一提示学习框架 Uni-Prompt ReID,通过模态感知、平台感知和视觉增强提示显著提升复杂场景下的 ReID 性能。

Online Dense Point Tracking with Streaming Memory

提出 SPOT 框架,通过定制的记忆读取模块、感知记忆(sensory memory)和可见性引导的 splatting 实现在线稠密长程点跟踪,以 10× 更少参数和 2× 更快速度达到 CVO 基准上的 SOTA,在多个稀疏跟踪基准上也超越或媲美离线方法。

OVG-HQ: Online Video Grounding with Hybrid-modal Queries

提出在线视频定位新任务 OVG-HQ,支持文本/图像/视频片段等混合模态查询,通过参数化记忆块(PMB)保留历史信息和混合蒸馏策略缓解模态不平衡,在流式视频中实时定位目标片段。

PriOr-Flow: Enhancing Primitive Panoramic Optical Flow with Orthogonal View

提出双分支框架 PriOr-Flow,利用正交视图的低畸变先验来补偿 ERP 全景图像极区的严重畸变,从而显著提升全景光流估计精度,在 MPFDataset 和 FlowScape 上分别降低 EPE 30.0% 和 29.6%。

Q-Frame: Query-aware Frame Selection and Multi-Resolution Adaptation for Video-LLMs

提出 Q-Frame,一种无需训练的即插即用视频帧选择与多分辨率自适应框架,利用 CLIP 跨模态匹配和 Gumbel-Max 技巧实现查询感知的帧选择,使 Video-LLM 在相同计算预算下处理更多关键帧,在 MLVU、LongVideoBench、Video-MME 三个基准上显著提升性能。

RainbowPrompt: Diversity-Enhanced Prompt-Evolving for Continual Learning

提出 RainbowPrompt,通过注意力变换和任务引导对齐的提示演化机制,将多个任务特定提示整合为多样性增强的统一提示,在图像分类和视频动作识别任务上平均超越现有方法 8.23%。

ResidualViT for Efficient Temporally Dense Video Encoding

本文提出 ResidualViT,通过类比视频压缩中的 I帧/P帧 策略,交替使用完整 ViT 和轻量残差 ViT 编码视频帧,在保持接近原始 CLIP 精度的同时,实现最高 60% 的计算成本降低和 2.5 倍推理加速。

Simultaneous Motion And Noise Estimation with Event Cameras

首次提出事件相机运动估计与噪声估计的联合方法,利用对比度最大化(CMax)框架中运动补偿后的局部对比度对每个事件评分,通过交替优化同时获得运动参数和信号/噪声分类,在 E-MLB 去噪基准上达到 SOTA。

Sparse-Dense Side-Tuner for Efficient Video Temporal Grounding

提出 SDST(Sparse-Dense Side-Tuner),首个无锚框(anchor-free)的 Side-Tuning 架构,通过稀疏-稠密双流设计同时处理时刻检索(MR)和高光检测(HD),并提出 Reference-based Deformable Self-Attention(RDSA)解决可变形注意力的上下文缺失问题,在 QVHighlights、TACoS、Charades-STA 上取得 SOTA 或高度竞争性结果,同时将可训练参数量减少至现有 SOTA 的 27%。

TimeExpert: An Expert-Guided Video LLM for Video Temporal Grounding

提出TimeExpert——首个基于MoE的Video-LLM框架,通过任务感知动态门控token自适应路由将时间戳、显著性分数和文本描述路由到专门的专家,配合任务依赖辅助损失,在Dense Video Captioning、Moment Retrieval和Video Highlight Detection三类VTG任务上全面超越SOTA。

TOGA: Temporally Grounded Open-Ended Video QA with Weak Supervision

提出TOGA——一种弱监督条件下的视觉语言模型,通过多尺度视觉语言连接器和一致性约束生成伪时序标签,在无需任何时序标注的情况下联合生成开放式答案与时间定位,在NExT-GQA、MSVD-QA和ActivityNet-QA上取得SOTA。

Towards Efficient General Feature Prediction in Masked Skeleton Modeling

提出 GFP(General Feature Prediction)框架,将掩码骨架建模的重建目标从低层关节坐标提升为多层次高层语义特征预测,配合轻量级目标生成网络和信息最大化约束,实现 6.2 倍训练加速的同时达到 SOTA 性能。

Towards Video Thinking Test: A Holistic Benchmark for Advanced Video Reasoning and Understanding

提出 Video Thinking Test (Video-TT),一个评估视频大语言模型正确性和鲁棒性的基准,包含 1000 个 YouTube Shorts 视频和 5000 个问题,通过视觉/叙事复杂性因子和自然对抗问题揭示了当前最强模型(GPT-4o 36.6%)与人类(84.3%)之间的巨大差距。

Trokens: Semantic-Aware Relational Trajectory Tokens for Few-Shot Action Recognition

提出Trokens框架,通过语义感知的轨迹点采样关系运动建模(包含轨迹内HoD和轨迹间相对位移描述子),将点轨迹转化为语义感知的关系token,与外观特征融合后在6个few-shot动作识别基准上取得SOTA。

UMDATrack: Unified Multi-Domain Adaptive Tracking Under Adverse Weather Conditions

UMDATrack 提出了首个统一多域自适应跟踪框架,利用文本引导扩散模型合成少量(<2% 帧)多天气条件无标注视频,通过域定制适配器(DCA)高效迁移目标表征到不同天气域,并引入基于最优传输的目标感知置信度对齐(TCA)增强跨域定位一致性,在夜间/雾天/雨天等场景中大幅超越现有 SOTA 跟踪器。

Unsupervised Joint Learning of Optical Flow and Intensity with Event Cameras

提出首个基于单一网络的无监督学习框架,从事件相机数据中联合估计光流和图像亮度,核心是新推导的事件光度误差(PhE)与对比度最大化(CMax)的互补损失函数。

Vamba: Understanding Hour-Long Videos with Hybrid Mamba-Transformers

提出 Vamba —— 一种混合 Mamba-Transformer 架构的大型多模态模型,用 Mamba-2 块以线性复杂度编码视频 token、用交叉注意力更新文本 token,在单 GPU 上可处理 1024 帧视频,在小时级视频理解基准上超越所有高效 LMM 方法。

VideoLLaMB: Long Streaming Video Understanding with Recurrent Memory Bridges

提出 VideoLLaMB,通过 SceneTiling 语义分段、循环记忆桥接层和记忆缓存检索机制,以线性 GPU 内存扩展实现长流式视频理解,在 4 个 VideoQA 基准上平均提升 4.2 分。

VideoMiner: Iteratively Grounding Key Frames of Hour-Long Videos via Tree-based Group Relative Policy Optimization

提出VideoMiner——基于强化学习的长视频理解树结构框架,通过迭代分割-描述-聚类构建层次化视频树,并提出T-GRPO(树结构Group Relative Policy Optimization)引导策略模型自适应探索关键帧,在4个长视频基准上取得SOTA,并发现T-GRPO可自发激发推理链。

VTimeCoT: Thinking by Drawing for Video Temporal Grounding and Reasoning

提出 VTimeCoT,一种无需训练的视觉-时间链式思维框架,通过在视频帧底部叠加可视化进度条和高亮关键片段,使多模态大模型能准确感知时间戳,在时间定位和推理问答任务上大幅超越 GPT-4o 和 Qwen2VL-7B 基线。

What You Have is What You Track: Adaptive and Robust Multimodal Tracking

提出FlexTrack——首个系统研究时序性不完整多模态数据下跟踪性能的框架,通过异构MoE融合机制(HMoE)实现自适应计算复杂度,配合视频级masking训练策略,在9个基准上取得SOTA,完整模态提升2.6%,缺失模态场景提升10.2%。

XTrack: Multimodal Training Boosts RGB-X Video Object Trackers

提出 XTrack,通过 Mixture of Modal Experts (MeME) 框架和软路由分类器,实现 RGB-D/T/E 跨模态知识共享,使推理时仅用单模态即可受益于多模态训练知识,平均精度提升 3%。