🎵 音频/语音¶
🎞️ ECCV2024 · 9 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (29) · 📷 CVPR2026 (17) · 🔬 ICLR2026 (32) · 🤖 AAAI2026 (31) · 🧠 NeurIPS2025 (50) · 📹 ICCV2025 (13)
🔥 高频主题: 语音 ×5
- Action2Sound: Ambient-Aware Generation of Action Sounds from Egocentric Videos
-
提出 AV-LDM,通过在训练时引入同一视频不同时间段的音频作为环境音条件,隐式解耦前景动作声和背景环境音,结合检索增强生成(RAG)在推理时选择合适的环境音条件,在 Ego4D 和 EPIC-KITCHENS 上大幅超越已有方法。
- Beat-It: Beat-Synchronized Multi-Condition 3D Dance Generation
-
提出 Beat-It 框架,通过将节拍条件从音乐中解耦并设计层次化多条件融合机制,实现了节拍同步且关键帧可控的 3D 舞蹈生成,在 AIST++ 上大幅领先现有方法。
- CoLeaF: A Contrastive-Collaborative Learning Framework for Weakly Supervised Audio-Visual Video Parsing
-
提出 CoLeaF 双分支学习框架,通过事件感知对比学习显式优化跨模态上下文的整合,在弱监督音视频解析任务上平均提升 1.9% F-score。
- EDTalk: Efficient Disentanglement for Emotional Talking Head Synthesis
-
提出基于正交可学习基向量的高效解耦框架 EDTalk,将人脸动态分解为嘴型、头部姿态和情感表情三个独立潜空间,同时支持视频驱动和音频驱动的情感说话人头像生成。
- Label-Anticipated Event Disentanglement for Audio-Visual Video Parsing
-
提出 LEAP(Label semantic-based Projection)解码范式,利用事件类别的标签文本嵌入作为语义锚点,通过跨模态注意力机制将音频/视觉隐特征中潜在重叠的事件语义解耦到独立的标签嵌入中,配合基于 EIoU 的音视觉语义相似度损失,在 AVVP 任务上取得 SOTA。
- Latent-INR: A Flexible Framework for Implicit Representations of Videos with Discriminative Semantics
-
提出 Latent-INR 框架,通过为视频每帧学习一个隐式 latent code 并结合 hypernetwork 进行低秩权重调制,将视频 INR 的空间与时间建模解耦,在保持压缩性能的同时赋予表征语义判别能力,支持检索、视频插帧和任意分辨率推理等多种下游任务。
- Listen to Look into the Future: Audio-Visual Egocentric Gaze Anticipation
-
提出 CSTS(Contrastive Spatial-Temporal Separable)音视频融合方法,首次将音频信号引入第一人称注视预测任务,通过空间和时间分离融合模块分别建模音视频的空间共现和时序相关性,并用后融合对比学习增强表示,在 Ego4D 和 Aria 数据集上超越 SOTA。
- Siamese Vision Transformers are Scalable Audio-Visual Learners
-
提出AVSiam框架,使用单个共享权重的ViT backbone同时处理音频和视觉输入,结合多比例随机掩码策略和对比+重建双目标预训练,以极低成本(比MAViL快28.9倍)在音视觉分类和检索上达到SOTA性能。
- Spherical World-Locking for Audio-Visual Localization in Egocentric Videos
-
提出球面世界锁定(Spherical World-Locking, SWL)框架,通过将多模态感知流隐式变换到世界锁定的球面坐标系中,消除自身运动带来的挑战,实现更精准的第一人称视频中的音视觉定位。