🧑 人体理解¶
📷 CVPR2025 · 67 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (1) · 📷 CVPR2026 (61) · 🔬 ICLR2026 (8) · 🤖 AAAI2026 (16) · 🧠 NeurIPS2025 (19) · 📹 ICCV2025 (49)
🔥 高频主题: 人体姿态 ×17 · 人脸/视线 ×11 · 虚拟人 ×5 · 语音 ×4 · 多模态 ×3
- 3D Face Reconstruction From Radar Images
-
首次从毫米波雷达图像进行3D人脸重建:用物理雷达渲染器生成合成数据集训练CNN编码器估计BFM参数,再通过学习一个可微分雷达渲染器构建model-based autoencoder,在合成数据上实现2.56mm平均点距精度,并可在推理时无监督优化参数。
- Analyzing the Synthetic-to-Real Domain Gap in 3D Hand Pose Estimation
-
首次系统研究3D手势估计中合成数据到真实数据的域差距,通过可控数据合成管线分解并分析了前臂、频谱统计、手势分布、物体遮挡四个关键因素的影响,证明合理整合这些因素后纯合成数据可达到与真实数据同等的精度。
- Any6D: Model-free 6D Pose Estimation of Novel Objects
-
提出 Any6D 框架,仅从单张 RGB-D 锚点图像即可估计未知物体的 6D 位姿和尺寸,通过 InstantMesh 3D 重建 + 朝向包围盒粗对齐 + 联合尺寸-位姿精细化,在 HO3D 上 ADD-S 达 98.7% 远超 GEDI 的 71.9%。
ChatGarment: Garment Estimation, Generation and Editing via Large Language Models
- Co-op: Correspondence-based Novel Object Pose Estimation
-
本文提出 Co-op,一个基于对应关系的新物体6DoF位姿估计框架,在粗估计阶段用混合表示(patch级分类+偏移回归)仅42个模板即可快速准确估计初始位姿,在精细化阶段用概率流回归+可微PnP端到端优化,在BOP Challenge七个核心数据集上大幅超越现有方法。
- ControlFace: Harnessing Facial Parametric Control for Face Rigging
-
提出 ControlFace,利用双分支 U-Net(FaceNet + 去噪 U-Net)结合 3DMM 渲染条件,实现无需微调即可灵活编辑人脸姿态、表情和光照,同时精确保留身份和语义细节。
- CRISP: Object Pose and Shape Estimation with Test-Time Adaptation
-
提出 CRISP,一个类别无关的物体姿态与形状估计 pipeline,核心创新在于基于 active shape model 的优化校正器和 correct-and-certify 自训练策略,可在测试时自适应弥合大的域差距。
- CryptoFace: End-to-End Encrypted Face Recognition
-
提出 CryptoFace,首个端到端全同态加密(FHE)人脸识别系统,通过混合浅层 patch CNN 架构(CryptoFaceNet)大幅降低乘法深度,实现比 SOTA FHE 网络快 7 倍的加密推理,同时提升验证精度。
- D3-Human: Dynamic Disentangled Digital Human from Monocular Video
-
D3-Human 提出了一种从单目视频重建解耦(服装+人体)数字人几何的方法,通过定义人体流形上的有符号距离场(hmSDF)在无需3D服装先验的条件下实现了可见区域的服装-人体精确分割,约20分钟生成解耦模板并支持换装和动画应用。
- Design2GarmentCode: Turning Design Concepts to Tangible Garments Through Program Synthesis
-
提出 Design2GarmentCode,首个神经符号方法将多模态设计输入(文本/图像/草图)转化为参数化服装制版程序(GarmentCode DSL),实现 100% 仿真成功率和 88.67% 的用户满意度,且生成的程序可编辑、可参数化。
- Efficient Video Face Enhancement with Enhanced Spatial-Temporal Consistency
-
本文提出一种基于 3D-VQGAN 的高效盲人脸视频增强框架,通过设计空间-时间双码本记录高质量肖像特征和运动残差信息,配合边际先验正则化缓解码本崩溃问题,在 BFVR 和去闪烁任务上实现了 SOTA 效果且推理速度提升 2-140 倍。
- ESC: Erasing Space Concept for Knowledge Deletion
-
提出 ESC(Erasing Space Concept),通过 SVD 分解待遗忘数据的特征空间并移除主成分方向,实现训练无关的特征级知识删除,首次定义了"知识删除"(Knowledge Deletion)任务并提出 Knowledge Retention Score 评估特征级遗忘效果。
- ESCAPE: Equivariant Shape Completion via Anchor Point Encoding
-
ESCAPE 提出了一种基于锚点距离编码的旋转等变点云补全方法,通过将点云表示为到高曲率锚点的距离矩阵,使 Transformer 在旋转不变的距离空间中预测完整形状,再通过优化恢复 3D 坐标,在任意旋转输入下大幅超越现有方法(PCN 数据集 CD-L1 从 26.65 降至 10.58)。
- Exploring Timeline Control for Facial Motion Generation
-
本文首次提出面部动作生成的时间线控制方式——用户指定多轨道时间轴上各面部动作的精确帧区间,通过TICC时序聚类实现省力的帧级面部动作标注,并设计base-branch扩散模型在解耦各面部区域的同时保留自然耦合,生成精确对齐时间线且自然流畅的面部动作。
- FATE: Full-head Gaussian Avatar with Textural Editing from Monocular Video
-
提出 FATE,从单目视频重建可动画化的全头高斯化身,通过基于采样的密化策略(替代阈值分裂)、神经烘焙(将离散高斯转为连续UV纹理图以支持编辑)和通用补全框架(合成后脑外观),实现仅 49K 高斯即达到 28.37dB PSNR 的高效高质量重建。
- FreeCloth: Free-Form Generation Enhances Challenging Clothed Human Modeling
-
提出 FreeCloth 混合框架,将人体表面分为"裸露/变形/生成"三类区域,对贴身衣物用 LBS 变形、对宽松服装(裙子、长裙)用无 LBS 约束的自由形态生成器建模,在 ReSynth 数据集上取得 SOTA,尤其在宽松服装场景下大幅超越现有方法。
- FreeUV: Ground-Truth-Free Realistic Facial UV Texture Recovery via Cross-Assembly
-
FreeUV 提出了一种不需要 ground-truth UV 纹理数据的面部 UV 纹理恢复框架,通过分别训练关注真实外观的 UV-to-2D 网络和关注结构一致性的 2D-to-UV 网络,在推理时将两者的 UV 相关模块跨装配(Cross-Assembly)到预训练 Stable Diffusion 中,实现高保真的 UV-to-UV 纹理生成。
- FRESA: Feedforward Reconstruction of Personalized Skinned Avatars from Few Images
-
提出 FRESA,通过学习一个通用着装人体先验模型,从少量图像前馈式(18秒)联合推理个性化 canonical 形状、蒙皮权重和姿态依赖变形,实现零样本泛化到手机照片的高质量可动画化 3D 人体 Avatar 重建。
- FSFM: A Generalizable Face Security Foundation Model via Self-Supervised Facial Representation Learning
-
FSFM 提出首个面向人脸安全任务的自监督预训练框架,通过 CRFR-P 面部掩码策略 + MIM/ID 双任务协同学习真实人脸的 3C 表示(区域内一致性、区域间连贯性、局部到全局对应性),在深伪检测、活体检测和扩散伪造检测三大任务上超越任务专用 SOTA。
- GaussianIP: Identity-Preserving Realistic 3D Human Generation via Human-Centric Diffusion Prior
-
提出 GaussianIP 两阶段框架,通过自适应人体蒸馏采样(AHDS)从人体中心扩散模型高效生成身份一致的 3D 高斯人体,再通过视角一致性精炼(VCR)机制利用 mutual attention 增强面部和服饰纹理细节,在 40 分钟内完成训练并显著优于现有方法。
- GCE-Pose: Global Context Enhancement for Category-Level Object Pose Estimation
-
GCE-Pose 提出一种"先补全再聚合"的策略,通过语义形状重建(SSR)模块将部分观测补全为完整的几何+语义 3D 表示,再通过全局上下文增强(GCE)特征融合模块将全局信息注入局部关键点特征,在 HouseCat6D 和 NOCS-REAL275 上显著超越现有方法。
- HeatFormer: A Neural Optimizer for Multiview Human Mesh Recovery
-
提出HeatFormer——一种基于Transformer的神经优化器,通过将SMPL参数估计转化为热力图生成与对齐问题,实现对多视角图像中人体形状和姿态的迭代优化恢复,在Human3.6M上达到29.5mm MPJPE的SOTA精度,且对视角数量、相机配置和遮挡具有强鲁棒性。
- HiPART: Hierarchical Pose AutoRegressive Transformer for Occluded 3D Human Pose Estimation
-
HiPART 提出从稀疏 2D 姿态(17 关节)生成层次化稠密 2D 姿态(48→96 关节)的自回归生成方案,用丰富的骨架上下文替代复杂的时序/视觉编码器来解决遮挡问题,在单帧 3D HPE 上达到 SOTA 且超越多数多帧方法,同时参数量和计算量更小。
- Homogeneous Dynamics Space for Heterogeneous Humans
-
本文提出 HDyS(Homogeneous Dynamics Space),通过聚合来自生物力学和强化学习的异构人体运动数据,训练一个同构潜空间来统一不同运动学和动力学表征,实现了从运动学到动力学的高质量双向映射,并在逆动力学估计、地面反力预测等下游任务上展现了有效性。
- HSEmotion Team at ABAW-10 Competition: Facial Expression Recognition, Valence-Arousal Estimation, Action Unit Detection and Fine-Grained Violence Classification
-
HSEmotion 团队在 ABAW-10 竞赛中提出了一个轻量级 pipeline:用预训练 EfficientNet 提取面部 embedding,结合 MLP + GLA(Generalized Logit Adjustment)+ 滑窗平滑,在四项任务(EXPR/VA/AU/VD)上均大幅超过官方 baseline,其中暴力检测任务使用 ConvNeXt-T + TCN 达到 0.783 macro F1。
- Human Motion Instruction Tuning
-
LLaMo 提出了一种保留运动原始表示(而非转化为语言 token)的多模态指令微调框架,通过同时处理视频、运动序列和文本输入来增强模型对复杂人体行为的理解和预测能力。
- HumanMM: Global Human Motion Recovery from Multi-shot Videos
-
HumanMM首次提出从多镜头视频中恢复世界坐标系下3D人体运动的框架,通过镜头转换检测器、增强SLAM、基于立体标定的朝向对齐和运动积分器,实现了跨镜头的连续运动重建。
- KeyFace: Expressive Audio-Driven Facial Animation for Long Sequences via KeyFrame Interpolation
-
KeyFace 提出一个两阶段扩散框架——先以低帧率生成捕捉关键表情的锚帧,再通过插值模型填充中间帧——解决了现有音频驱动面部动画方法在长序列中身份漂移和质量退化的问题,同时首次支持连续情感(valence/arousal)建模和多种非语音发声 (NSV) 的动画生成。
- Learning Affine Correspondences by Integrating Geometric Constraints
-
提出一种融合稠密匹配与几何约束的仿射对应估计新框架(DenseAffine),采用两阶段解耦训练:先用 Sampson 距离损失训练稠密点匹配器,再冻结匹配器、用仿射 Sampson 距离损失训练局部仿射变换提取器,在 HPatches 匹配和 MegaDepth 位姿估计上均取得 SOTA。
- MEGA: Masked Generative Autoencoder for Human Mesh Recovery
-
MEGA 提出了一种基于遮掩生成建模的人体网格恢复方法,通过将人体 mesh 离散化为 token 序列,在自监督预训练后进行图像条件生成,同时支持确定性单次预测和随机多输出生成模式,在两种模式下均达到 SOTA 性能。
- MoEE: Mixture of Emotion Experts for Audio-Driven Portrait Animation
-
提出情绪混合专家(MoEE)模型,为 6 种基础情绪各训练一个专家网络并通过 Soft MoE 门控组合,配合 150 小时专业情绪数据集和多模态情绪条件模块,实现对单一及复合情绪的精确、自然控制。
- MotionMap: Representing Multimodality in Human Pose Forecasting
-
提出MotionMap——用热力图表示运动空间分布的新范式,通过t-SNE降维+codebook实现可变数量模式预测和置信度量化,以最少采样实现最佳模式覆盖。
- MotionReFit: Dynamic Motion Blending for Versatile Motion Editing
-
提出 MotionReFit,首个通用文本引导动作编辑框架,通过 MotionCutMix 数据增强和自回归扩散模型+运动协调器,同时支持空间和时序编辑,无需额外规格说明或 LLM。
- NBAvatar: Neural Billboards Avatars with Realistic Hand-Face Interaction
-
NBAvatar 提出 Neural Billboard 原语——将可学习平面几何原语与神经纹理延迟渲染结合,实现手脸交互场景下的照片级真实头部 avatar 渲染,在百万像素分辨率下 LPIPS 比 Gaussian 方法降低 30%。
- Omni-ID: Holistic Identity Representation Designed for Generative Tasks
-
Omni-ID 提出了一种专为生成任务设计的全息人脸身份表征,通过 few-to-many 身份重建训练范式和多解码器目标(Masked Transformer + Flow Matching),将不定数量的输入图像编码为固定大小的结构化表征,在可控人脸生成和个性化 T2I 任务中显著超越 ArcFace 和 CLIP。
- One2Any: One-Reference 6D Pose Estimation for Any Object
-
提出 One2Any,仅需单张参考图像即可估计任意新物体的 6D 位姿——用参考物体坐标(ROC,以参考相机帧为基准而非规范坐标)编码参考姿态,通过 VQVAE+U-Net 条件生成密集 ROC 图,再用 Umeyama 算法恢复位姿,在 YCB-Video 上 93.7% ADD-S AUC,推理仅 0.09 秒。
- Pose Priors from Language Models
-
提出 ProsePose 框架,利用大型多模态模型 (LMM, 如 GPT-4V) 作为接触先验,从图像中提取身体部位接触约束并转化为可优化的损失函数,在无需人工接触标注的情况下改善双人交互和自接触场景的 3D 姿态估计。
- PoseBH: Prototypical Multi-Dataset Training Beyond Human Pose Estimation
-
提出 PoseBH,通过非参数关键点原型(Sinkhorn-Knopp 在线聚类)和跨类型自监督(CSS)实现人/动物/手部等不同骨骼定义数据集的统一训练,在 APT-36K 动物视频数据集上比 ViTPose++ 提升 11.2 AP,证明跨类型知识迁移的有效性。
- Probabilistic Prompt Distribution Learning for Animal Pose Estimation
-
提出 PPAP(Probabilistic Prompt for Animal Pose),一种基于概率提示分布学习的多物种动物姿态估计方法,通过为每个关键点构建多个可学习属性提示并建模为高斯分布,结合多样性损失和跨模态融合策略,在有监督和零样本设置下均达到 SOTA。
- PromptHMR: Promptable Human Mesh Recovery
-
PromptHMR 提出了一种基于 Transformer 的可提示式人体姿态与形状估计方法,通过空间提示(边界框、分割掩码)和语义提示(语言描述、交互标签)灵活引导全图 3D 人体重建,在多个基准上达到 SOTA 并支持视频版的世界坐标运动估计。
- Quaffure: Real-Time Quasi-Static Neural Hair Simulation
-
Quaffure 提出首个基于物理自监督的实时准静态头发仿真方法,通过将头发形变分解为刚性姿态变换和学习到的修正,使用改进的 Cosserat 弹性能量作为自监督损失训练 CNN 解码器,在消费级硬件上仅需几毫秒即可为不同发型、体型和姿态预测物理合理的头发悬垂效果。
- Recurrent Feature Mining and Keypoint Mixup Padding for Category-Agnostic Pose Estimation
-
提出 FMMP 框架,通过基于可变形注意力的循环挖掘细粒度结构感知(FGSA)特征 + 关键点 Mixup 填充策略,在类别无关姿态估计(CAPE)上大幅超越 SOTA(+3.2% PCK@0.05)。
- Reference-Free Image Quality Assessment for Virtual Try-On via Human Feedback
-
提出 VTON-IQA,一个无参考的虚拟试穿图像质量评估框架,通过大规模人类标注基准 VTON-QBench(62,688 张试穿图 + 431,800 条标注)和 Interleaved Cross-Attention 模块实现与人类感知对齐的图像级质量预测。
- Remote Photoplethysmography in Real-World and Extreme Lighting Scenarios
-
提出首个面向真实户外极端光照场景的 rPPG 端到端视频 Transformer 模型,通过全局干扰共享、背景参考解耦和生物先验约束,仅基于 RGB 摄像头实现鲁棒的生理信号提取。
- RePerformer: Immersive Human-centric Volumetric Videos from Playback to Photoreal Reperformance
-
提出 RePerformer,一种基于 3DGS 的体积视频表示方法,通过分层解耦运动高斯和外观高斯、Morton 编码参数化以及语义感知对齐模块,统一实现高保真回放和基于新动作的逼真再表演。
- RGBAvatar: Reduced Gaussian Blendshapes for Online Modeling of Head Avatars
-
RGBAvatar提出"精简高斯混合形状"表示,仅用20个可学习基底即可高效表征可动画头部虚拟形象,配合批量并行渲染和颜色初始化策略,首次实现在线实时(边拍边建)的头部虚拟形象重建。
- RUBIK: A Structured Benchmark for Image Matching across Geometric Challenges
-
RUBIK提出了一个基于nuScenes数据集的结构化图像匹配基准,通过重叠度、尺度比和视角差三个互补的几何难度准则将16.5K图像对组织成33个难度等级,系统评估了14种方法后发现最好的detector-free方法(DUSt3R)也仅在54.8%的图像对上成功,暴露了当前方法在极端几何条件下的严重不足。
- SemGeoMo: Dynamic Contextual Human Motion Generation with Semantic and Geometric Guidance
-
提出SemGeoMo,通过LLM自动标注器提供语义引导并结合affordance-level和joint-level的层级几何引导,在两阶段框架中实现动态上下文环境下的高质量人体交互运动生成,同时输出对应文本描述。
- Shape My Moves: Text-Driven Shape-Aware Synthesis of Human Motions
-
本文提出 ShapeMove 框架,通过 Shape-Aware FSQ-VAE 将连续体型信息注入离散量化的动作 token,并利用预训练语言模型同时预测体型参数和动作 token,实现了首个从自然语言描述端到端生成体型感知动作的方法。
- ShowMak3r++: Compositional Entertainment Video Reconstruction
-
本文提出 ShowMak3r++,一个从电视节目和网络视频重建动态辐射场的组合式管线,核心创新包括基于深度先验的时空定位模块、跨镜头演员关联的 ShotMatcher,以及隐式人脸拟合网络,支持演员重定位、插入、删除等后制编辑应用。
- SimMotionEdit: Text-Based Human Motion Editing with Motion Similarity Prediction
-
提出 SimMotionEdit,引入运动相似度预测作为辅助任务,配合 Condition Transformer + Diffusion Transformer 双模块架构,在 MotionFix 数据集上实现文本驱动 3D 人体动作编辑的 SOTA 性能。
- SocialGesture: Delving into Multi-Person Gesture Understanding
-
SocialGesture 是首个专注于多人社交场景下指示性手势(pointing/showing/giving/reaching)的大规模数据集,涵盖 9889 个视频片段和 42533 个手势实例,同时提出了时序定位、分类识别和 VQA 三类基准任务,系统揭示了当前模型在多人手势理解上的严重不足。
- Sonic: Shifting Focus to Global Audio Perception in Portrait Animation
-
提出 Sonic 框架,以全局音频感知为核心范式(而非依赖视觉运动帧),通过上下文增强音频学习、运动解耦控制器和时间感知位移融合三个模块,实现了高质量、时间一致的音频驱动肖像动画生成。
- StickMotion: Generating 3D Human Motions by Drawing a Stickman
-
提出 StickMotion 框架,通过用户手绘的火柴人图作为细粒度动作控制条件,结合文本描述实现全局+局部的 3D 人体动作生成,并设计多条件模块(MCM)高效处理条件组合,节省用户 51.5% 的动作创意表达时间。
- Stochastic Human Motion Prediction with Memory of Action Transition and Action Characteristic
-
本文针对动作驱动的随机人体运动预测中动作过渡不平滑和动作特征难以学习两大挑战,提出软过渡动作库(STAB)和动作特征库(ACB)两个记忆模块,配合自适应注意力调整(AAA)策略进行特征融合,在 GRAB、NTU、BABEL、HumanAct12 四个数据集上达到 SOTA。
- Structure-Aware Correspondence Learning for Relative Pose Estimation
-
提出结构感知对应学习方法(SAC-Pose),通过学习能代表物体结构的关键点,并基于图像间结构感知特征直接回归3D-3D对应关系(无需显式特征匹配),显著提升未见类别物体的相对位姿估计精度。
- Team LEYA in 10th ABAW Competition: Multimodal Ambivalence/Hesitancy Recognition Approach
-
本文提出面向视频级矛盾/犹豫(A/H)识别的多模态方法,整合场景(VideoMAE)、面部(EmotionEfficientNetB0)、音频(EmotionWav2Vec2.0+Mamba)和文本(EmotionDistilRoBERTa)四种模态,通过原型增强的 Transformer 融合模型实现 83.25% 平均 MF1,最终以五模型集成在测试集达到 71.43%。
- Two by Two: Learning Multi-Task Pairwise Objects Assembly for Generalizable Robot Manipulation
-
本文提出了 2BY2 数据集——首个大规模日常成对物体组装数据集(18类任务、517对物体),并设计了一种两步式 SE(3) 位姿估计网络,利用等变特征实现多任务物体配对组装,在所有任务上达到 SOTA,并通过真实机器人实验验证了泛化能力。
- Two is Better than One: Efficient Ensemble Defense for Robust and Compact Models
-
提出 EED(Efficient Ensemble Defense),从单个基础模型通过不同剪枝策略(NIS/ERM/ASE/BNSF)生成多个子模型并动态集成——在 80% 稀疏度下 CIFAR-10 PGD 鲁棒准确率 55.71%(接近未压缩基线),推理加速 1.86 倍。
- UniHOPE: A Unified Approach for Hand-Only and Hand-Object Pose Estimation
-
提出 UniHOPE,首个统一手部姿态估计(HPE)和手-物姿态估计(HOPE)的框架,通过物体开关器动态控制输出、抓握感知特征融合消除无关物体特征干扰,以及基于扩散模型的去遮挡生成+多层特征增强学习遮挡不变特征。
- UniPose: A Unified Multimodal Framework for Human Pose Comprehension, Generation and Editing
-
UniPose 提出首个统一的多模态框架,利用 LLM 将 3D 人体姿态离散化为 pose tokens 并与文本 tokens 共享词表,通过混合视觉编码器和混合注意力机制实现了跨图像、文本和 3D SMPL 姿态的七个核心姿态任务(理解、生成和编辑)的统一建模。
- UNOPose: Unseen Object Pose Estimation with an Unposed RGB-D Reference Image
-
提出 UNOPose 方法和基准,仅使用单张无位姿的 RGB-D 参考图像即可估计未知物体的 6DoF 相对位姿,通过 \(SE(3)\) 不变参考坐标系和重叠感知匹配实现了与依赖 CAD 模型方法相当的性能。
- VI3NR: Variance Informed Initialization for Implicit Neural Representations
-
推导了适用于任意激活函数的隐式神经表示(INR)初始化方法 VI3NR,将 Xavier/Kaiming 初始化推广到 Gaussian/Sinc 等非标准激活——通过控制前向和反向传播的方差一致性,用一个自由度 \(\sigma_p^2\) 同时满足两个方向的稳定性,显著改善 INR 的收敛速度和重建质量。
- VTON 360: High-Fidelity Virtual Try-On from Any Viewing Direction
-
提出 VTON 360,通过将 3D 虚拟试穿重新建模为多视角一致的 2D 虚拟试穿扩展问题,结合伪 3D 姿态表示、多视角空间注意力和多视角 CLIP 嵌入三项技术,实现从任意视角的高保真虚拟试穿。
- Wav2Sem: Plug-and-Play Audio Semantic Decoupling for 3D Speech-Driven Facial Animation
-
提出即插即用的音频语义解耦模块 Wav2Sem,通过从完整音频序列中提取全局语义特征并与现有自监督音频模型(HuBERT/Wav2Vec 2.0)融合,解决近同音音节在特征空间中的耦合问题,显著缓解唇形生成中的"平均化效应",在 6 种不同架构的面部动画模型上均取得一致的性能提升。
- WildAvatar: Learning In-the-Wild 3D Avatars from the Web
-
提出自动化标注管线和过滤协议,从 YouTube 视频中构建了 WildAvatar——一个包含 10,000+ 人体对象的大规模野外 3D avatar 创建数据集,规模比此前数据集大 10 倍以上,并在 EMDB 基准上超越现有 SMPL 标注方法。
- X-Dyna: Expressive Dynamic Human Image Animation
-
X-Dyna提出了一种基于扩散模型的零样本人体图像动画管线,通过轻量级Dynamics-Adapter模块在保持外观一致性的同时生成逼真的人体和场景动态效果,并引入S-Face ControlNet实现身份解耦的面部表情迁移。