🧑 人体理解¶
📹 ICCV2025 · 49 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (1) · 📷 CVPR2026 (61) · 🔬 ICLR2026 (8) · 🤖 AAAI2026 (16) · 🧠 NeurIPS2025 (19) · 🧪 ICML2025 (2)
🔥 高频主题: 人体姿态 ×11 · 人脸/视线 ×7 · 扩散模型 ×6 · 重识别 ×4 · 语音 ×3
- AdaHuman: Animatable Detailed 3D Human Generation with Compositional Multiview Diffusion
-
提出AdaHuman框架,通过姿态条件化的3D联合扩散模型和组合式3DGS细化模块,从单张图片生成高精度、可动画化的3D人体虚拟人。
- AJAHR: Amputated Joint Aware 3D Human Mesh Recovery
-
首个面向截肢者的3D人体网格恢复框架——通过合成100万+截肢者图像(A3D)、设计BPAC-Net截肢分类器区分截肢与遮挡、以及双Tokenizer切换策略分别编码截肢/正常位姿先验,在截肢者数据上大幅领先(ITW-amputee上MVE比TokenHMR低16.87),非截肢者数据上也保持竞争力。
- AR-VRM: Imitating Human Motions for Visual Robot Manipulation with Analogical Reasoning
-
提出 AR-VRM,首个通过显式模仿人类手部关键点来增强视觉机器人操控的方法,采用关键点视觉语言模型预训练从大规模人类动作视频中学习动作知识,并通过类比推理(Analogical Reasoning)建立人手关键点与机器人组件的映射。
- Avat3r: Large Animatable Gaussian Reconstruction Model for High-fidelity 3D Head Avatars
-
提出Avat3r——首个可动画的大型3D重建模型(LRM),仅需4张输入图像即可在前馈方式下回归出高质量可驱动的3D高斯头部头像,通过整合DUSt3R位置图和Sapiens语义特征作为先验、并用简单的cross-attention建模表情动画,在Ava256和NeRSemble数据集上大幅超越现有方法。
- Bi-Level Optimization for Self-Supervised AI-Generated Face Detection
-
提出BLADES方法,通过双层优化(bi-level optimization)将自监督预训练与AI生成人脸检测目标显式对齐:内层优化视觉编码器学习EXIF分类/排序和人脸篡改检测等前置任务,外层优化各任务权重以提升代理检测任务性能,实现不依赖合成人脸的跨生成器泛化检测。
- Bring Your Rear Cameras for Egocentric 3D Human Pose Estimation
-
首次研究HMD后置相机对自中心3D全身姿态估计的价值,提出基于Transformer的多视图热图细化方法,结合不确定性感知掩码机制,在新建的Ego4View数据集上实现>10% MPJPE提升。
- CarGait: Cross-Attention based Re-ranking for Gait Recognition
-
提出CarGait,一种基于交叉注意力的步态识别重排序方法,通过probe与候选序列之间的strip-wise交叉注意力学习细粒度的步态对应关系,将预训练单阶段模型的全局特征映射到新的判别性嵌入空间,在Gait3D、GREW和OU-MVLP三大基准上对七种步态模型均取得一致的Rank-1/5精度提升。
- CarGait: Cross-Attention based Re-ranking for Gait Recognition
-
提出CarGait,一种基于交叉注意力的步态识别重排序方法,通过probe与候选序列之间的strip-wise交叉注意力学习细粒度的步态对应关系,将预训练单阶段模型的全局特征映射到新的判别性嵌入空间,在Gait3D、GREW和OU-MVLP三大基准上对七种步态模型均取得一致的Rank-1/5精度提升。
- CarGait: Cross-Attention based Re-ranking for Gait Recognition
-
提出CarGait——基于cross-attention的步态识别重排序方法:对任意单阶段步态模型的top-K检索结果,通过probe与候选间步态条带(gait strip)的cross-attention学习细粒度pair-wise交互,生成新的条件化表征并重新计算距离进行重排序。在Gait3D/GREW/OU-MVLP三个数据集、7种基线模型上一致提升Rank-1/5准确率,推理速度6.5ms/probe远超现有重排序方法。
- CleanPose: Category-Level Object Pose Estimation via Causal Learning and Knowledge Distillation
-
首次将因果推理引入类别级物体位姿估计(COPE),通过基于前门调整的因果推理模块消除数据偏差导致的虚假关联,并利用3D基础模型ULIP-2的残差知识蒸馏提供无偏的类别语义监督,在REAL275的严格指标5°2cm上达到61.7%,超越SOTA 4.7%。
- Contact-Aware Refinement of Human Pose Pseudo-Ground Truth via Bioimpedance Sensing
-
提出BioTUCH框架,通过手腕间生物阻抗传感检测自接触事件,结合视觉姿态估计器进行接触感知的3D手臂姿态优化,平均提升重建精度11.7%。
- Controllable and Expressive One-Shot Video Head Swapping
-
本文提出一个基于扩散模型的多条件可控视频头部替换框架(SwapAnyHead),通过形状无关掩码策略、发型增强策略和表情感知的3DMM驱动landmark重定向模块,实现了高保真的身份保持、无缝背景融合和精确的跨身份表情迁移与编辑。
- DreamActor-M1: Holistic, Expressive and Robust Human Image Animation with Hybrid Guidance
-
DreamActor-M1提出基于DiT架构的人体图像动画框架,通过隐式面部表征+3D头部球体+3D身体骨架的混合控制信号实现精细面部和身体控制,结合互补外观引导和渐进式训练策略支持肖像到全身的多尺度生成。
- Dynamic Reconstruction of Hand-Object Interaction with Distributed Force-aware Contact Representation
-
提出 ViTaM-D,一个视觉-触觉融合框架,通过新提出的分布式力感知接触表示(DF-Field)和两阶段流程(视觉动态跟踪+力感知优化),实现刚性和可变形物体的手物交互动态重建,并引入 HOT 数据集填补可变形物体手物交互的评测空白。
- DynFaceRestore: Balancing Fidelity and Quality in Diffusion-Guided Blind Face Restoration
-
提出 DynFaceRestore,通过动态模糊等级映射(DBLM)将盲退化转化为高斯去模糊问题,结合动态起始步查找表(DSST)和区域自适应引导缩放器(DGSA),在扩散模型采样中实现保真度与感知质量的最优平衡。
- EgoAgent: A Joint Predictive Agent Model in Egocentric Worlds
-
提出EgoAgent,一个统一的预测式智能体模型,在单个Transformer中同时学习表征第一人称视觉观测、预测未来世界状态和生成3D人体动作。
- Fish2Mesh Transformer: 3D Human Mesh Recovery from Egocentric Vision
-
本文提出Fish2Mesh,一个鱼眼感知的Transformer模型,通过等距矩形投影的自我中心位置编码(EPE)将鱼眼图像的球面几何信息嵌入Swin Transformer,实现从头戴鱼眼相机的第一人称视角准确恢复3D人体mesh。
- GenM3: Generative Pretrained Multi-path Motion Model for Text Conditional Human Motion Generation
-
提出 GenM3 框架,通过 Multi-Expert VQ-VAE (MEVQ-VAE) 学习统一的离散运动表示,以及 Multi-path Motion Transformer (MMT) 处理模态内变异和跨模态对齐,整合 11 个运动数据集(约 220 小时),在 HumanML3D 上达到 SOTA FID 0.035。
- GENMO: A GENeralist Model for Human MOtion
-
提出 GENMO,首个统一人体运动估计(从视频/2D 关键点恢复运动)和运动生成(从文本/音乐/关键帧合成运动)的通用模型,通过双模式训练范式(回归+扩散)在单一模型中同时实现精确估计和多样生成。
- GestureHYDRA: Semantic Co-speech Gesture Synthesis via Hybrid Modality Diffusion Transformer and Cascaded-Synchronized Retrieval-Augmented Generation
-
提出 GestureHYDRA,一个基于混合模态扩散 Transformer 和级联同步检索增强生成的共语手势合成系统,能够可靠地激活语义明确的手势(如数字和方向指示)。
- GGTalker: Talking Head Synthesis with Generalizable Gaussian Priors and Identity-Specific Adaptation
-
GGTalker 提出先验-适配两阶段训练策略,从大规模数据集学习通用的音频-表情先验和表情-视觉先验,再快速适配到特定身份,在渲染质量、3D 一致性、唇同步和训练效率上全面达到 SOTA,仅需 20 分钟适配即可生成 120 FPS 的逼真说话头视频。
- HccePose(BF): Predicting Front & Back Surfaces to Construct Ultra-Dense 2D-3D Correspondences for Pose Estimation
-
提出同时预测物体前后表面的3D坐标并在两表面间密集采样,构建超密集2D-3D对应关系,配合新颖的层级连续坐标编码(HCCE),在BOP七大核心数据集上超越现有SOTA方法。
- High-Resolution Spatiotemporal Modeling with Global-Local State Space Models for Video-Based Human Pose Estimation
-
提出 GLSMamba,首个纯 Mamba 的视频人体姿态估计框架,通过 Global Spatiotemporal Mamba(6D 选择性时空扫描 + 时空调制融合)和 Local Refinement Mamba(窗口化时空扫描)分别建模全局动态上下文和局部关键点细节,在四个基准上以线性复杂度达到 SOTA。
- HIS-GPT: Towards 3D Human-In-Scene Multimodal Understanding
-
提出 HIS-GPT,首个面向3D人-场景联合理解的多模态大语言模型,通过辅助交互模块(AInt)和布局-轨迹位置编码(LTP)捕获人场交互线索,并构建首个系统性基准 HIS-Bench,在HIS-QA任务上大幅超越GPT-4o等基线。
- HUMOTO: A 4D Dataset of Mocap Human Object Interactions
-
提出 HUMOTO,一个高保真 4D 人物交互数据集,包含 735 段序列(7875 秒,30fps),涵盖 63 个精确建模物体和 72 个可动部件,创新性地使用 LLM 驱动的场景脚本生成流程和多传感器捕获系统,在手部姿态精度和交互质量上显著超越现有数据集。
- IDFace: Face Template Protection for Efficient and Secure Identification
-
提出 IDFace,一种基于同态加密(HE)的人脸模板保护方法,通过近等距变换(实值向量→三值向量)和空间高效编码两项技术,使 100 万加密模板的检索仅需 126ms,相比无保护仅 2× 开销。
- ImHead: A Large-scale Implicit Morphable Model for Localized Head Modeling
-
imHead 提出首个大规模隐式 3D 头部形变模型,通过全局-局部解耦架构在 4,000 个身份的数据集上训练,实现了紧凑的隐式表示与局部面部编辑的兼顾,在重建精度和编辑灵活性上超越现有方法。
- KinMo: Kinematic-Aware Human Motion Understanding and Generation
-
提出 KinMo 框架,将人体运动分解为六大运动学组及其交互的层级可描述表示,通过自动标注管线生成细粒度文本描述,结合层级文本-运动对齐和由粗到细的运动生成策略,显著提升运动理解和细粒度运动生成能力。
- LVFace: Progressive Cluster Optimization for Large Vision Models in Face Recognition
-
提出 LVFace,通过渐进式聚类优化(PCO)策略解决 ViT 在大规模人脸识别中训练不稳定的问题,将训练分解为特征对齐、质心稳定和边界精炼三个阶段,在多个基准上取得 SOTA。
- MagShield: Towards Better Robustness in Sparse Inertial Motion Capture Under Magnetic Disturbances
-
提出 MagShield,首个针对稀疏惯性运动捕捉系统中磁场干扰问题的方法,采用"检测-校正"两阶段策略:通过多 IMU 联合分析检测磁场扰动,再利用人体运动先验网络校正方向误差,可即插即用地增强现有稀疏 IMU 动捕系统的鲁棒性。
- MDD: A Dataset for Text-and-Music Conditioned Duet Dance Generation
-
介绍 Multimodal DuetDance (MDD),首个同时整合动作、音乐和文本描述的大规模专业级双人舞蹈数据集,包含 620 分钟动捕数据、15 种舞蹈类型和超过 10K 条细粒度文本标注,并提出 Text-to-Duet 和 Text-to-Dance Accompaniment 两个新任务。
- Mitigating Object Hallucinations via Sentence-Level Early Intervention
-
提出 SENTINEL 框架,通过句子级早期干预和域内偏好学习有效缓解 MLLM 的物体幻觉,在 Object HalBench 上将幻觉率降低超过 90%,同时保持甚至提升通用能力。
- MixRI: Mixing Features of Reference Images for Novel Object Pose Estimation
-
提出 MixRI,一个仅需 12 张参考图像和 5.3M 参数的轻量级网络,通过多视角特征融合策略直接建立多参考图与查询图之间的 2D-3D 对应关系,在 BOP 挑战的 7 个核心数据集上实现了与需要数百张参考图的方法相当的位姿估计性能。
- Monocular Facial Appearance Capture in the Wild
-
提出一种从单目头部旋转视频重建面部外观属性(漫反射反照率、高光强度、高光粗糙度)的方法,通过提出遮挡感知的 split-sum 近似着色模型,在不对光照环境做任何简化假设的情况下实现了逼近工作室级别的面部外观捕捉质量。
- NGD: Neural Gradient Based Deformation for Monocular Garment Reconstruction
-
提出 NGD,一种基于神经梯度的变形方法,通过将 Jacobian 场分解为帧不变的静态分量和帧相关的动态分量,结合自适应重网格化策略,从单目视频重建高保真动态纺织品几何与纹理,在宽松服装等困难场景上显著优于现有 SOTA。
- One-Shot Knowledge Transfer for Scalable Person Re-Identification
-
提出 OSKT(One-Shot Knowledge Transfer),通过将教师模型知识精炼为"权重链"(weight chain)作为中间载体,实现一次计算即可生成任意尺寸学生模型的行人重识别模型压缩方案。
- OpenAnimals: Revisiting Person Re-Identification for Animals Towards Better Generalization
-
本文开发了 OpenAnimals 开源框架,系统回顾行人重识别方法在动物重识别中的迁移效果,提出面向动物的强基线模型 ARBase,在多个基准上大幅超越现有行人 ReID 方法。
- PersPose: 3D Human Pose Estimation with Perspective Encoding and Perspective Rotation
-
提出PersPose框架,通过透视编码(PE)将裁剪后相机内参编码为2D映射、透视旋转(PR)将人体居中以消除透视畸变,解决了现有方法忽略FOV信息导致深度估计不准确的问题。
- PHD: Personalized 3D Human Body Fitting with Point Diffusion
-
提出个性化3D人体姿态估计范式PHD——先通过SHAPify校准用户体型,再用体型条件化的点扩散模型PointDiT作为3D先验,结合Point Distillation Sampling损失迭代优化姿态,在绝对姿态精度上达到EMDB数据集SOTA。
- PoseSyn: Synthesizing Diverse 3D Pose Data from In-the-Wild 2D Data
-
提出 PoseSyn 框架,通过误差提取模块(EEM)从野外 2D 姿态数据中识别目标估计器的困难样本,再通过运动合成模块(MSM)将不准确的伪标签扩展为多样化的运动序列,最终借助人体动画模型生成带有准确 3D 标注的合成训练数据,在多个真实场景基准上将 3D 姿态估计精度提升最多 14%。
- RayPose: Ray Bundling Diffusion for Template Views in Unseen 6D Object Pose Estimation
-
将未见物体6D位姿估计重新建模为射线对齐问题,提出物体中心的射线参数化方案,运用扩散变换器从多个已知位姿模板中推断查询图像的6D位姿。
- SemGes: Semantics-aware Co-Speech Gesture Generation using Semantic Coherence and Relevance Learning
-
SemGes 提出两阶段框架,通过语义一致性和语义相关性学习在全局和细粒度层面整合语义信息,生成与语音语义对齐的共语手势,在 BEAT 和 TED-Expressive 两个基准上超越现有方法。
- Sequential Keypoint Density Estimator: An Overlooked Baseline of Skeleton-Based Video Anomaly Detection
-
SeeKer 提出将骨架序列的联合密度在关键点级别进行自回归分解,通过预测后续关键点的条件高斯分布来检测异常人体行为,在 UBnormal 和 MSAD-HR 数据集上大幅超越现有方法。
- Signs as Tokens: A Retrieval-Enhanced Multilingual Sign Language Generator
-
提出 SOKE,一种基于预训练语言模型的多语言手语生成框架,通过解耦式 tokenizer 将连续手语动作离散化为 token 序列,结合多头解码和检索增强策略,实现从文本到多语种 3D 手语 avatar 的高质量生成。
- SynFER: Towards Boosting Facial Expression Recognition with Synthetic Data
-
提出 SynFER,一个基于扩散模型的面部表情合成框架,通过文本描述 + 面部动作单元 (FAU) 的双重控制实现细粒度表情生成,并引入 FERAnno 标签校准器确保标注可靠性,在自监督、监督、零样本和少样本四种学习范式下均证明合成数据对 FER 的有效性。
- TriDi: Trilateral Diffusion of 3D Humans, Objects, and Interactions
-
提出 TriDi,首个建模人体(H)、物体(O)和交互(I)三变量联合分布的统一扩散模型,一个网络覆盖 7 种条件生成模式,超越各专用单向基线。
- UDC-VIT: A Real-World Video Dataset for Under-Display Cameras
-
提出首个真实世界屏下摄像头(UDC)视频数据集 UDC-VIT,包含 647 个视频片段共 116,460 帧,通过精心设计的双摄像头-分光器采集系统实现精确的时空对齐,并以人脸识别为核心应用场景,揭示了合成数据集在模拟真实 UDC 退化方面的不足。
- Weakly Supervised Visible-Infrared Person Re-Identification via Heterogeneous Expert Collaborative Consistency Learning
-
提出首个弱监督可见光-红外行人重识别(VIReID)范式,仅使用各模态内部的身份标注(无需跨模态对应标注),通过异构专家协同一致性学习框架建立跨模态身份对应关系,性能接近全监督方法。
- What's Making That Sound Right Now? Video-centric Audio-Visual Localization
-
提出视频级音视频定位基准 AVATAR 和时序感知模型 TAVLO,通过高分辨率时序建模解决传统 AVL 方法忽略时间动态的问题。