跳转至

🎵 音频/语音

💬 ACL2025 · 41 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (29) · 📷 CVPR2026 (17) · 🔬 ICLR2026 (32) · 🤖 AAAI2026 (31) · 🧠 NeurIPS2025 (50) · 📹 ICCV2025 (13)

🔥 高频主题: 语音 ×37 · 对话系统 ×6 · 少样本学习 ×4 · LLM ×4 · 对抗鲁棒 ×3

Finding A Voice: Exploring the Potential of African American Dialect and Voice Generation for Chatbots

对文本和语音两种模态下将非裔美式英语(AAE)融入聊天机器人进行系统研究,发现文本AAE反而损害用户体验,但配合非裔口音的语音机器人受到AAE使用者青睐,揭示了语言个性化中模态选择的关键作用。

Acoustic Individual Identification of White-Faced Capuchin Monkeys Using Joint Multi-Species Embeddings

本文探索利用来自鸟类和人类的跨物种声学预训练嵌入来识别白面卷尾猴的个体叫声,发现联合多物种表征能进一步提升识别性能,为数据极度稀缺的野生动物个体识别提供了新的迁移学习范式。

Advancing Zero-shot Text-to-Speech Intelligibility across Diverse Domains via Preference Alignment

提出INTP(Intelligibility Preference Speech Dataset)数据集和面向多种TTS架构的DPO扩展方法,通过偏好对齐显著提升零样本TTS系统在绕口令、重复词、中英混合、跨语言等挑战场景下的可懂度,并验证了弱模型到强模型的泛化能力。

AI4Reading: Chinese Audiobook Interpretation System Based on Multi-Agent Collaboration

提出 AI4Reading,一个基于 11 个专业化 LLM Agent 协作的中文有声书解读系统,通过主题分析、案例扩展、编辑润色、口语化改写和整合修订等阶段自动生成解读稿,并用 TTS 合成音频,在解读脚本质量(简洁性、完整性、准确性、连贯性)上超过专业人工解读平台樊登读书。

Amplifying Trans and Nonbinary Voices: A Community-Centred Harm Taxonomy for LLMs

本文采用社区导向(community-centred)的研究方法,通过与跨性别和非二元性别(Trans and Nonbinary, TNB)群体的深入合作,构建了一套专门针对LLM输出中对TNB群体伤害的分类体系(harm taxonomy),揭示了现有LLM安全评估未覆盖的TNB特有伤害类型。

ATRI: Mitigating Multilingual Audio Text Retrieval Inconsistencies by Reducing Data Distribution Errors

本文分析了多语言音频文本检索(ML-ATR)中跨语言检索不一致的根本原因是训练数据分布误差,并提出 KCL(1-to-K对比学习)和 CACL(音频-英语共锚对比学习)两种策略来减少该误差,在 8 种语言上达到了 SOTA 性能。

ATRI: Mitigating Multilingual Audio Text Retrieval Inconsistencies by Reducing Data Distribution Errors

从理论上分析多语言音频文本检索(ML-ATR)中跨语言不一致性的根本原因是训练数据分布误差,并提出 1-to-K 对比学习(KCL)和音频-英语共锚对比学习(CACL)两种策略来减少该误差,在召回率和一致性上达到 SOTA。

Benchmarking Open-ended Audio Dialogue Understanding for Large Audio-Language Models

本文提出 ADU-Bench,一个包含 4 个子数据集(通用对话、技能、多语言、歧义处理)共 20,000+ 开放式音频对话的综合基准,系统评估 16 个大型音频语言模型(LALM)在音频对话理解上的能力,揭示现有模型在数学公式理解、角色扮演、多语言和语音歧义处理上的显著不足。

Analyzing and Mitigating Inconsistency in Discrete Audio Tokens for Neural Codec Language Models

本文揭示并量化分析了神经音频编解码器中的离散表示不一致性(DRI)问题——相同音频片段因上下文不同被编码为不同离散token序列,提出切片一致性和扰动一致性两种约束方法,将一致性平均提升21-36%,并在VALL-E语音生成中将WER降低3.72%。

Autoregressive Speech Synthesis without Vector Quantization

MELLE 提出了一种基于连续 mel-spectrogram 帧的自回归语言模型 TTS 方法,通过回归损失 + 变分推断采样模块 + spectrogram flux loss 直接预测连续频谱帧,避免了向量量化带来的保真度损失和采样鲁棒性问题,单阶段模型即可达到与人类水平相当的语音合成质量。

Chain-Talker: Chain Understanding and Rendering for Empathetic Conversational Speech Synthesis

提出 Chain-Talker,通过三阶段链式建模(情感理解→语义理解→共情渲染)实现可解释的共情对话语音合成,并开发 CSS-EmCap 自动标注管道为对话语音生成情感描述。

CLaMP 3: Universal Music Information Retrieval Across Unaligned Modalities and Unseen Languages

提出 CLaMP 3 统一框架,通过对比学习将乐谱、演奏信号、音频录音与多语言文本对齐到共享表示空间,在无配对训练数据的模态间实现跨模态检索,并展现出对未见语言的强泛化能力。

Contextual Biasing with the Knowledgeable External Language Model for End-to-End Speech Recognition

本文提出利用知识增强的外部语言模型(KELM)进行上下文偏置,在端到端语音识别中通过动态融合外部领域知识和偏置词表,大幅提升稀有词和专有名词的识别准确率。

ControlSpeech: Towards Simultaneous and Independent Zero-shot Speaker Cloning and Zero-shot Language Style Control

ControlSpeech 是首个同时实现零样本音色克隆和零样本语言风格控制的TTS系统,通过离散编解码器空间中的解耦表示和风格混合语义密度(SMSD)模块解决了风格控制中的多对多问题。

Dialectal Coverage and Generalization in Arabic Speech Recognition

系统研究阿拉伯语方言覆盖对 ASR 性能的影响,通过多方言预训练和联合微调扩展 ArTST 模型覆盖 17 个阿拉伯国家的语音变体,并探索了代码切换场景下的多语言优化策略。

Different Speech Translation Models Encode and Translate Speaker Gender Differently

通过注意力探针分析不同架构的语音翻译模型如何编码说话人性别信息,发现传统编码器-解码器模型能较好保留性别信息,而新型 speech+MT 架构的适配器会显著擦除性别信息,导致翻译中出现更严重的阳性默认偏差。

Distilling an End-to-End Voice Assistant Without Instruction Training Data

提出DiVA(Distilled Voice Assistant),通过将文本LLM对转录文本的响应作为自监督信号进行跨模态蒸馏,无需任何语音指令训练数据即可训练端到端语音LLM——仅用3.5k小时ASR数据就泛化到口语问答、分类和翻译任务,且在用户偏好测试中以72%胜率碾压Qwen 2 Audio(使用100倍以上训练计算量)。

DNCASR: End-to-End Training for Speaker-Attributed ASR

提出 DNCASR,一种端到端可训练的说话人归因 ASR 系统,通过链接神经聚类解码器和 ASR 解码器,联合训练生成带说话人标识的转录文本,在 AMI 会议数据上实现 cpWER 9.0% 的相对降低。

Does Your Voice Assistant Remember? Analyzing Conversational Context Recall and Utilization in Voice Interaction Models

系统性评估开源语音交互模型的对话历史回忆能力,提出 ContextDialog 基准,发现这些模型在回忆过去语音信息方面远弱于文本模型,且 RAG 方法也难以有效弥补这一差距。

Double Entendre: Robust Audio-Based AI-Generated Lyrics Detection via Multi-View Fusion

提出 DE-detect,一个仅以音频为输入的多视角晚期融合管线,通过结合自动转录歌词的文本特征和语音模型提取的歌词相关音频特征,实现了对 AI 生成歌词的鲁棒检测,在域内外均优于单模态方法。

Eta-WavLM: Efficient Speaker Identity Removal in Self-Supervised Speech Representations Using a Simple Linear Equation

提出 Eta-WavLM,通过简单的线性方程将 WavLM 自监督语音表示分解为说话人相关和说话人无关两个分量,无需复杂训练即可生成高质量的说话人解耦表示,在语音转换任务上全面超越现有方法。

GigaSpeech 2: An Evolving, Large-Scale and Multi-domain ASR Corpus for Low-Resource Languages

GigaSpeech 2 构建了一个约 30,000 小时的大规模低资源语言(泰语、印尼语、越南语)ASR 语料库,通过自动化爬取-转录-精炼管线从无标注 YouTube 视频生成高质量伪标签,训练的模型仅用 10% 参数量即可将 WER 比 Whisper large-v3 降低 25%-40%。

Investigating and Enhancing Vision-Audio Capability in Omnimodal Large Language Models

发现当前全模态大语言模型(OLLMs)在视觉-音频任务上显著弱于视觉-文本任务,原因在于视觉与音频模态之间缺乏直接对齐,并提出 Self-KD(自知识蒸馏)方法,利用 OLLM 自身的视觉-文本组件作为教师来增强视觉-音频能力。

Mind the Gap! Static and Interactive Evaluations of Large Audio Models

本文通过收集 484 名参与者的 7,500 次交互评估数据,首次系统比较了大型音频模型(LAM)的静态基准和交互式评估表现,发现两者之间存在显著差距(\(R^2=0.30\)),并揭示了用户对 LAM 的真实使用场景和偏好。

MMS-LLaMA: Efficient LLM-based Audio-Visual Speech Recognition with Minimal Multimodal Speech Tokens

提出 MMS-LLaMA,通过早期音视频融合、动态查询分配的 AV Q-Former 和语速预测器三个模块,将多模态语音 token 压缩至每秒仅 3.5 个,在 LRS3 上以 0.72% WER 达到 SOTA 的同时减少 86% token 用量和 35.7% FLOPs。

OmniFlatten: An End-to-end GPT Model for Seamless Voice Conversation

提出 OmniFlatten——基于 Qwen2-0.5B 的端到端全双工语音对话模型,通过三阶段渐进式后训练(模态对齐→半双工→全双工对话学习)和统一的 flatten 操作,在不修改 GPT 架构的前提下实现了低延迟的自然全双工语音交互,turn-taking 响应时间仅 193ms,显著优于 Moshi 的 553ms。

On the Robust Approximation of ASR Metrics

提出一种无需真实标签的 ASR 性能指标近似方法,利用多模态统一 embedding 空间中的语音-文本相似度和高质量代理模型的 proxy metrics,训练回归模型预测 WER/CER,在 40+ 模型和 14 个数据集上绝对误差控制在个位数以内,超过最新基线 50% 以上。

Predicting Turn-Taking and Backchannel in Human-Machine Conversations Using Linguistic, Acoustic, and Visual Signals

提出首个融合语言、声学和视觉三模态信号预测对话中轮换(turn-taking)和反馈通道(backchannel)动作的端到端框架,并构建了包含 210+ 小时的 MM-F2F 面对面对话数据集,turn-taking F1 提升 10%,backchannel F1 提升 33%。

Soundwave: Less is More for Speech-Text Alignment in LLMs

提出 Soundwave 模型,通过高效训练策略和新颖架构解决语音和文本之间的表示空间差距与序列长度不一致问题,仅用五十分之一的训练数据即超越 Qwen2-Audio 在语音翻译和 AIR-Bench 语音任务上的表现。

Spark-TTS: An Efficient LLM-Based Text-to-Speech Model with Single-Stream Decoupled Speech Tokens

提出 Spark-TTS,基于新型单流语音编解码器 BiCodec 和 Qwen2.5 LLM 的高效 TTS 系统,通过将语音解耦为低码率语义 token 和固定长度全局 token,实现零样本语音克隆和从粗到细的属性控制,在 Seed-TTS-eval 上达到 SOTA 可懂度。

Sparsify: Learning Sparsity for Effective and Efficient Music Performance Question Answering

Sparsify 提出三层稀疏化策略(稀疏掩码+自适应稀疏合并+关键子集选择)用于音乐表演视听问答(Music AVQA),在 MUSIC-AVQA 和 v2.0 两个 benchmark 上达到 SOTA(81.75%/81.30%),训练时间减少 28.32%,25% 数据即保持 74% 的全量性能。

SpeechIQ: Speech-Agentic Intelligence Quotient Across Cognitive Levels in Voice Understanding by Large Language Models

提出 SpeechIQ,一个基于 Bloom 认知分类学的层次化语音理解评估框架,从 Remember(WER)、Understand(语义相似度)、Apply(QA 准确率)三个层次综合评估语音 LLM 的智能水平,发现级联 ASR+LLM 系统在同规模下优于端到端多模态模型。

SpeechWeave: Diverse Multilingual Synthetic Text & Audio Data Generation Pipeline for Training Text to Speech Models

SpeechWeave 提出了一套端到端的合成语音数据生成流水线,通过关键词采样提升文本多样性、在生成时即完成文本归一化(准确率达97%)、并利用跨语言语音克隆实现说话人标准化,生成的数据在多样性上比直接提示LLM高出10-48%,并能有效提升下游TTS模型性能。

T2A-Feedback: Improving Basic Capabilities of Text-to-Audio Generation via Fine-grained AI Feedback

提出三个细粒度 AI 音频评分管线(事件出现/事件顺序/声学和谐质量)替代人工标注构建大规模音频偏好数据集 T2A-FeedBack(41K提示+249K音频),用偏好调优增强 TTA 模型的基础能力,在简单(AudioCaps)和复杂(T2A-EpicBench)场景下都显著提升多事件音频生成质量。

In-the-wild Audio Spatialization with Flexible Text-guided Localization

提出 TAS(Text-guided Audio Spatialization)框架,用灵活的文本提示(3D 空间位置描述或声源间相对位置描述)引导潜在扩散模型将单声道音频转换为双耳音频,构建了 376K 样本的 SpatialTAS 数据集,在模拟和真实录制数据上均超越现有方法,并基于 Llama-3.1-8B 开发了空间语义一致性评估模型。

TCSinger 2: Customizable Multilingual Zero-shot Singing Voice Synthesis

提出 TCSinger 2,一个多任务多语言零样本歌声合成模型,通过模糊边界编码器、对比学习音频编码器和基于 Flow 的自定义 Transformer(含 Cus-MOE),实现基于歌声/语音/文本提示的风格迁移与多层级风格控制。

Towards Reliable Large Audio Language Model

本文首次系统研究大型音频语言模型(LALM)的可靠性问题,提出训练无关方法(IDK/MCoT/Task Agent)和训练方法(基于模型特定 IDK 数据集的 LoRA SFT),并设计 Reliability Gain Index(RGI)指标来评估可靠性提升效果,发现"知道说不知道"是可跨音频模态迁移的元能力。

UniCodec: Unified Audio Codec with Single Domain-Adaptive Codebook

UniCodec 提出了一种使用单个域自适应码本的统一音频编解码器,通过分区域码本和域混合专家(MoE)策略,在语音、音乐和声音三个域上均实现卓越的重建和语义表示性能。

WavRAG: Audio-Integrated Retrieval Augmented Generation for Spoken Dialogue Models

提出 WavRAG,首个端到端原生支持音频的检索增强生成框架,通过 WavRetriever 实现音频-文本混合知识库的统一检索,并结合 CoT 推理增强口语对话模型的上下文能力,在保持与 SOTA 文本 RAG 可比性能的同时实现约 10 倍加速。

Who Can Withstand Chat-Audio Attacks? An Evaluation Benchmark for Large Audio-Language Models

提出 Chat-Audio Attacks (CAA) 基准,包含四类通用对抗音频攻击(内容攻击、情感攻击、显式噪声攻击、隐式噪声攻击),通过三种评估方法系统评测六个 SOTA 大型音频语言模型的鲁棒性,发现 GPT-4o 表现最优但所有模型均存在显著脆弱性。

Zero-Shot Text-to-Speech for Vietnamese

针对越南语零样本TTS缺乏高质量长音频数据集的问题,构建了941小时的PhoAudiobook数据集,并在VALL-E、VoiceCraft和XTTS-v2三个SOTA零样本TTS模型上进行系统实验,证明PhoAudiobook显著提升了模型性能,其中XTTS-v2在长句合成上全面超越基线viXTTS,而VALL-E和VoiceCraft在短句合成上更具鲁棒性。