跳转至

Avatar Fingerprinting for Authorized Use of Synthetic Talking-Head Videos

会议: ECCV 2024
arXiv: 2305.03713
代码: https://research.nvidia.com/labs/nxp/avatar-fingerprinting/
领域: 人体理解 / 深度伪造检测
关键词: Avatar指纹识别, 面部运动签名, 说话头生成, 身份验证, 深度伪造

一句话总结

本文定义了"Avatar指纹识别"这一新任务——验证合成说话头视频中驱动表情的真实身份,贡献了迄今最大规模的面部重建数据集NVFAIR(161个身份),并提出基于归一化面部关键点距离和时序CNN的基线方法,通过学习与外观无关的面部运动签名实现身份验证(平均AUC 0.85),且能泛化到未见过的生成器(AUC 0.83)。

研究背景与动机

领域现状:现代说话头生成器(如face-vid2vid、LIA、TPS等)能够合成照片级逼真的实时说话头视频,催生了视频会议、AR/VR互动等新一代通信体验。用户可以用自己的表情驱动另一个人的Avatar进行实时通信,极大降低了带宽需求。

现有痛点:(1) 身份冒用风险——恶意用户可以未经授权使用他人的面貌外观来生成合成视频,构成身份盗用和欺骗。(2) 现有Deepfake检测的局限——传统的Deepfake检测方法关注的是"图像是否为合成的",而非"谁在驱动这个合成视频"。即使检测出视频是合成的,也无法判断驱动者是否获得了授权。(3) 缺乏数据和基准——这是一个全新的任务方向,没有合适的大规模数据集和评估基准。

核心矛盾:说话头生成技术越来越普及和逼真,但缺乏一种机制来验证"谁在驱动这个Avatar"——这是安全使用该技术的前提条件。合成视频的外观和驱动者可以完全分离,传统的面部识别(基于外观)完全失效。

本文目标 (1) 定义并形式化"Avatar指纹识别"任务;(2) 构建大规模配对数据集;(3) 提出能够从面部运动中识别驱动者身份的基线方法。

切入角度:每个人的面部表达习惯是独特的——每个人的微笑方式、说话时的嘴部运动模式、眨眼节奏等构成了一种"运动签名",这种签名与面部外观无关,可以作为身份指纹。

核心 idea:通过学习与外观无关的面部运动签名(motion signatures),可以识别合成说话头视频中持驱动表情的真实身份。

方法详解

整体框架

方法流程为:输入说话头视频片段 → 逐帧提取面部关键点(126个landmarks)→ 计算归一化的成对关键点距离以消除外观因素 → 将多帧距离特征在时间维度上拼接 → 送入时序卷积网络(Temporal CNN)→ 输出动态面部身份嵌入向量 → 通过对比学习使同一驱动者的嵌入聚类在一起。

关键设计

  1. 归一化成对关键点距离特征:

    • 功能:提取与面部外观(形状、肤色、五官比例)无关的运动特征
    • 核心思路:从每一帧中检测126个面部关键点(landmarks),然后计算所有关键点之间的成对欧式距离,并通过面部整体尺寸进行归一化。这种表示丢弃了绝对位置和尺度信息,只保留面部各部分之间的相对运动关系。例如,一个人微笑时嘴角和眼角之间的距离变化模式是独特的,与他/她用的是谁的脸无关
    • 设计动机:在合成说话头视频中,面部外观属于目标身份(target),但运动模式属于驱动身份(driver)。通过使用只编码运动关系的归一化成对距离,可以有效分离这两种信息,只关注驱动者的运动签名
  2. 时序卷积网络(Temporal CNN):

    • 功能:将多帧的运动特征聚合为一个紧凑的身份嵌入向量
    • 核心思路:将连续帧的归一化成对距离特征在时间维度上拼接,形成一个时空特征张量,送入1D卷积网络进行时序建模。CNN在时间维度上的卷积操作可以捕捉面部运动的时序模式——例如说话时嘴巴开合的节奏、表情变化的速度和幅度等动态特征。网络输出一个固定维度的动态面部身份嵌入向量(dynamic facial identity embedding)
    • 设计动机:静态的单帧特征不足以捕捉个人的运动签名——人的独特性体现在"如何运动"而不是"某一刻长什么样"。时序建模是提取运动签名的关键
  3. 动态身份嵌入对比学习:

    • 功能:学习一个嵌入空间,使同一驱动者的视频聚类在一起,不同驱动者的视频彼此远离
    • 核心思路:使用对比学习损失来训练网络。正样本对定义为由同一个人驱动的不同视频片段(无论使用谁的外观),负样本对定义为由不同人驱动的视频片段。训练后,在嵌入空间中测量两段视频之间的欧式距离即可判断它们是否由同一人驱动。关键的是,自重建(self-reenactment,用自己的脸驱动自己)和交叉重建(cross-reenactment,用自己驱动别人的脸)应该产生相近的嵌入
    • 设计动机:对比学习天然适合度量学习任务,能够在没有固定类别数的情况下学习灵活的身份表示。这使得方法能够泛化到训练时未见过的新身份

损失函数 / 训练策略

使用对比损失(contrastive loss)或三元组损失(triplet loss)进行训练。正对中,锚点和正样本来自同一驱动者(可以是不同的目标外观),负样本来自不同驱动者。训练数据来自NVFAIR数据集的自重建和交叉重建视频。

实验关键数据

主实验

Avatar指纹识别的身份验证性能:

方法/设置 指标 本文方法 说明
训练集内生成器 (face-vid2vid) AUC 0.85 平均AUC
未见过的生成器 (LIA, TPS) AUC 0.83 零样本泛化
自重建 vs 交叉重建 嵌入距离 自重建距离 ≪ 交叉重建距离 有效区分
不同说话场景(自由/脚本) AUC 稳定 跨场景泛化

消融实验

配置 AUC 说明
原始关键点坐标 较低 包含外观和位置信息
归一化成对距离 最优 有效去除外观因素
单帧特征 较低 无法捕捉动态签名
多帧+时序CNN 最优 捕捉运动时序模式
仅face-vid2vid训练 0.85 (已见) / 0.83 (未见) 良好泛化性

关键发现

  • 面部运动签名是一种有效的身份标识——每个人的面部动作模式足够独特以支持身份验证
  • 方法能泛化到训练时未见过的生成器(从0.85到0.83,仅下降2%),说明运动签名的提取不依赖于特定生成器的伪影
  • 归一化成对距离是去除外观信息的有效手段
  • NVFAIR数据集包含161个身份的自重建和交叉重建视频,为该领域提供了重要基准

亮点与洞察

  • 定义新任务:Avatar指纹识别是一个重要且未被研究的问题,随着说话头技术的普及将越来越关键
  • 运动签名的生物识别价值:证明了面部运动模式可以作为一种生物特征用于身份验证
  • 数据集贡献巨大:NVFAIR数据集填补了领域空白,包含自然交互场景
  • 跨生成器泛化:基于运动而非伪影的方法天然具备跨生成器泛化能力

局限与展望

  • AUC为0.85/0.83,在安全关键场景中可能不够高,需要进一步提升精度
  • 当驱动者刻意模仿他人的表情习惯时,方法可能被欺骗
  • 关键点检测本身可能在合成视频上不够准确,引入噪声
  • 仅使用了关键点距离,可以探索更丰富的运动表示(如光流、Action Unit等)
  • 数据集虽然最大但仅161个身份,规模仍需进一步扩大

相关工作与启发

  • Deepfake检测:FaceForensics++等二分类方法只关注真/假判断,不涉及身份
  • face-vid2vid(NVIDIA):高质量面部重建方法,是本文数据集的生成器之一
  • 面部识别:ArcFace等基于外观的方法无法处理合成视频中外观-驱动分离的场景
  • 启发:在AI生成内容时代,"谁创建了内容"比"内容是否是AI生成的"可能是更重要的问题

评分

  • 新颖性: ⭐⭐⭐⭐⭐(定义了全新的任务方向,填补了重要空白)
  • 实验充分度: ⭐⭐⭐⭐(数据集和基线方法完整,但性能仍有提升空间)
  • 写作质量: ⭐⭐⭐⭐
  • 价值: ⭐⭐⭐⭐(对AI生成内容的安全使用有重要意义)