⚡ LLM 效率¶
💬 ACL2025 · 37 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (8) · 📷 CVPR2026 (4) · 🔬 ICLR2026 (19) · 🤖 AAAI2026 (9) · 🧠 NeurIPS2025 (35) · 📹 ICCV2025 (1)
🔥 高频主题: LLM ×9
- A Drop-In Solution for On-the-Fly Adaptation of Speculative Decoding in Large Language Models
-
本文提出一种即插即用的推测解码自适应方案,能够在推理过程中动态调整草稿模型的推测窗口大小γ(以及可能的草稿模型选择),从而在不同输入分布下最大化推测解码的端到端加速比。
- Accelerating Speculative Decoding via Efficient Context-Aware Draft Generation
-
本文提出了一种上下文感知的高效草稿生成策略来加速推测解码(Speculative Decoding),通过让草稿模型根据当前上下文动态调整生成质量,在保持输出一致性的前提下显著提升 LLM 推理吞吐量。
- LaMPE: Length-aware Multi-grained Positional Encoding for Adaptive Long-context Scaling Without Training
-
提出 LaMPE(Length-aware Multi-grained Positional Encoding),通过 参数化 scaled sigmoid 函数 自适应确定最优映射长度,并设计 三区域多粒度注意力机制(head 精细局部 + middle 线性归一化压缩 + tail 恢复长程依赖),实现无训练即插即用的 LLM 上下文窗口外推,在五大长上下文基准上全面超越现有方法。
- Boosting Long-Context Information Seeking via Query-Guided Activation Refilling
-
本文提出ACRE(Activation Refilling)方法,通过构建双层KV缓存架构——L1层紧凑捕获全局信息、L2层提供局部详细信息——并利用输入查询动态从L2向L1补充相关条目,实现长上下文信息检索任务的高效处理,在性能和效率上均有显著提升。
- CLaSp: In-Context Layer Skip for Self-Speculative Decoding
-
CLaSp 提出一种无需训练的自推测解码方法,通过动态规划算法在每个验证步骤后根据上下文动态调整跳层策略,利用上一次验证的完整隐状态作为目标来选择最优跳层集合,在 LLaMA3 系列上实现 1.3-1.7× 加速且不改变生成分布。
- CNNSum: Exploring Long-Context Summarization with Large Language Models in Chinese Novels
-
构建了 CNNSum——基于中文小说的多尺度长文本摘要基准(695 样本,16k-128k tokens),通过人工标注确保质量,系统测评了 20+ 个 LLM,发现高级 LLM 倾向生成主观评述导致摘要模糊、小模型性价比更高、Base 版微调效果优于 Chat 版,且用短文本数据微调即可显著提升长文本摘要能力。
- Consistency-Preserving Contrastive Decoding for Faithful Document-Grounded Dialogue
-
本文提出一种一致性保持的对比解码(Consistency-Preserving Contrastive Decoding, CPCD)方法,通过在解码阶段对比有文档条件和无文档条件的生成分布,增强文档基础对话系统对源文档的忠实性,同时保持回复的流畅性和对话一致性。
- Giraffe: Design Choices for Extending the Context Length of Visual Language Models
-
系统性地探索了将现有视觉语言模型(VLM)的上下文窗口扩展到128K的设计空间,从数据配方、位置编码扩展到上下文利用三个维度提出最佳实践,并提出 M-RoPE++ 和混合分辨率训练两项技术,构建的 Giraffe 模型在长上下文 VLM 中达 SOTA。
- Distance between Relevant Information Pieces Causes Bias in Long-Context LLMs
-
本文提出 LongPiBench 基准,首次系统研究当长上下文中存在多个相关信息片段时,LLM 对信息片段间距离(spacing)的敏感性,揭示了当前模型虽已基本克服"中间丢失"问题,但在相关信息间距变化时仍存在显著的位置偏差。
- Dynamic Chunking and Selection for Reading Comprehension of Ultra-Long Context in Large Language Models
-
提出 Dynamic Chunking and Selection (DCS),通过基于语义相似度的动态分块和问题感知分类器的块选择,解决长文本固定分块导致的语义断裂问题,在 12 个长文本 QA 数据集上以 Llama3 为基座实现 single-hop 平均 35.50(+28.6%)和 multi-hop 平均 29.07(+20.0%)的提升,且在 256k token 输入下保持鲁棒。
- Efficient Many-Shot In-Context Learning with Dynamic Block-Sparse Attention
-
提出 Dynamic Block-Sparse Attention (DBSA),一种无需训练的推理框架,通过结构化块稀疏注意力编码和动态检索 KV 缓存,在多示例上下文学习中实现接近微调的推理延迟,同时保持 >95% 的最佳方法准确率。
- Entailment-Preserving First-order Logic Representations in Natural Language Entailment
-
形式化定义了蕴含保持一阶逻辑表示(EPF)任务及无参考评价指标(EPR系列),提出迭代learning-to-rank训练方法,通过BRIO损失优化T5模型的NL→FOL翻译,使其生成的FOL表示能被自动定理证明器验证蕴含关系,在三个数据集上EPR提升1.8-2.7%、EPR@16提升17.4-20.6%。
- FocusLLM: Precise Understanding of Long Context by Dynamic Condensing
-
提出FocusLLM框架,通过将长文本分块并为每块注入动态提示(dynamic prompt),用可训练的候选token浓缩各块的关键信息,再通过并行解码机制聚合到本地上下文中生成下一个token,仅用8K训练长度和0.5B训练预算即可扩展LLaMA-2到400K上下文,在LongBench和∞-Bench上超越所有基线。
- Unveiling Environmental Impacts of Large Language Model Serving: A Functional Unit View
-
本文引入生命周期评估中"功能单元"(Functional Unit)概念作为标准化比较基础,提出 FUEL 框架来评估 LLM 服务的环境影响,通过三个案例研究(模型大小、量化策略、硬件选择)揭示了降低碳排放的关键权衡。
- FUEL: Unveiling Environmental Impacts of Large Language Model Serving: A Functional Unit View
-
提出 FUEL 框架,首次引入生命周期评估中的"功能单元"(Functional Unit)概念作为标准化比较基准,在统一的质量、性能和工作负载约束下评估不同 LLM 服务配置的碳排放,通过模型大小、量化策略和硬件选择三个案例研究揭示了多个反直觉的绿色 AI 洞察。
- KV-Latent: Dimensional-level KV Cache Reduction with Frequency-aware Rotary Positional Embedding
-
KV-Latent 通过直接缩减预训练模型中 Key/Value 注意力头的维度(将 KV 向量映射到低维隐空间),配合两阶段微调策略和频率感知的 RoPE 修改,仅用不到 1% 预训练量的额外训练就实现 KV Cache 50-87% 的压缩,同时基本保持模型性能。
- LADM: Long-context Training Data Selection with Attention-based Dependency Measurement for LLMs
-
LADM提出了一种基于注意力机制的长上下文训练数据选择框架,通过训练一个小型Long Attention Calculator来计算span间的注意力依赖分数(PFS → AFS → CDS),从大规模语料中高效筛选具有强长程依赖的高质量样本用于持续预训练,仅用1B tokens即可显著提升LLM的长上下文能力。
- Literary Evidence Retrieval via Long-Context Language Models
-
将 RELiC 数据集改造为长上下文文学证据检索 benchmark(292 个高质量样本),要求模型在完整小说文本(45k-125k tokens)中为文学评论找到缺失引用;Gemini Pro 2.5 以 62.5% 准确率首次超越人类专家(55%),但最佳开源模型 DeepSeek-R1 仅 29.1%,揭示了闭源/开源模型在解释性推理上的巨大鸿沟。
- LongBench v2: Towards Deeper Understanding and Reasoning on Realistic Long-context Multitasks
-
LongBench v2 是一个包含 503 道高难度多选题的长上下文评测基准,上下文长度从 8k 到 2M 词,覆盖六大任务类型,人类专家在 15 分钟限制下仅达到 53.7% 准确率,而最强直接回答模型(GPT-4o 2024-08)仅 50.1%,推理模型 o1-preview 达到 57.7%,凸显了推理时计算扩展对长上下文深层理解的重要性。
- LongReward: Improving Long-context Large Language Models with AI Feedback
-
提出 LongReward,利用现成 LLM 从帮助性、逻辑性、忠实性和完整性四个维度为长上下文模型回复自动打分,结合 DPO 离线强化学习显著提升长上下文 SFT 模型的多维能力。
- LongSafety: Evaluating Long-Context Safety of Large Language Models
-
提出LongSafety——首个专门针对开放式长上下文任务的LLM安全评估基准,包含7类安全问题和6种任务类型共1,543个测试用例,揭示大多数模型安全率低于55%,且短上下文安全能力无法迁移到长上下文场景。
- What Really Matters in Many-Shot Attacks? An Empirical Study of Long-Context Vulnerabilities in LLMs
-
系统分析 Many-Shot Jailbreaking(MSJ)攻击的关键因素,发现上下文长度是攻击成功的决定性因素,而内容的有害性、主题、格式几乎不重要——即使重复安全内容、随机无意义文本(Lorem Ipsum)都能在长上下文下突破模型安全对齐。
- Mitigating Posterior Salience Attenuation in Long-Context LLMs with Positional Contrastive Decoding
-
发现长上下文LLM中的后验显著性衰减(PSA)现象——gold token的显著性随上下文增长而下降但仍保持高排名,由此提出无需训练的位置对比解码(PCD)方法,通过对比长距离感知注意力和局部感知注意力的logits来放大长距离信号,在多个长上下文基准上取得SOTA。
- Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention
-
DeepSeek提出NSA——一种可原生训练的分层稀疏注意力机制,通过压缩token、选择token和滑动窗口三条并行注意力路径实现高效长上下文建模,在27B参数模型上预训练后性能全面匹配甚至超越Full Attention,同时在64k序列上实现显著加速。
- On Many-Shot In-Context Learning for Long-Context Evaluation
-
深入研究 many-shot ICL 用于长上下文语言模型评估,提出 Sample Learning Ratio 指标区分 SSL 和 ASL 任务,构建 ManyICLBench 基准全面评测 12 个 LCLM。
- Ref-Long: Benchmarking the Long-Context Referencing Capability of Long-Context Language Models
-
提出 Ref-Long benchmark,从"引用定位"(给定 key 识别哪些文档引用了它并返回索引)这一被忽视的维度评估长上下文模型,包含 3 个子集(合成→真实)共 4300 个任务;发现即使 GPT-4o 在 Multi-Hard-24K 上 ExAcc 仅 19%,远低于人类 92%,且 prompt 工程和专项微调均无法根本解决该问题。
- RefreshKV: Updating Small KV Cache During Long-form Generation
-
提出RefreshKV推理方法,通过在生成过程中周期性地在全KV缓存注意力和小KV缓存注意力之间交替,并基于全注意力步的注意力模式动态更新小KV缓存,在不永久丢弃任何token的前提下,实现与驱逐式方法相当的加速且大幅提升长文本生成任务性能。
- SAM Decoding: Speculative Decoding via Suffix Automaton
-
提出SAM-Decoding,利用后缀自动机(Suffix Automaton)对通用文本语料和当前文本序列进行最长后缀匹配来高效生成推测解码的草稿,平均O(1)时间复杂度,在Spec-Bench上比现有检索式方法快18%+,并可与EAGLE-2等方法互补组合进一步提速3.28%-11.13%。
- Scaling Context, Not Parameters: Training a Compact 7B Language Model for Efficient Long-Context Processing
-
提出 MegaBeam-Mistral-7B,一个支持 512K token 上下文长度的 7B 语言模型,通过四阶段渐进式训练、RoPE theta 调优、bfloat16 精度修复和 XLA 编译器内存优化等工程实践,使紧凑型模型在长上下文任务上达到甚至超越大参数模型(如 Llama-3.1-70B、GPT-4)的性能。
- SEAL: Scaling to Emphasize Attention for Long-Context Retrieval
-
SEAL 通过发现特定注意力头/通道对长上下文检索有正/负影响的现象,设计了头级和通道级可学习缩放因子,仅用50个合成样本微调即可大幅提升LLM长上下文检索性能,且缩放因子可离线合并至模型权重实现零推理开销。
- Sliding Windows Are Not the End: Exploring Full Ranking with Long-Context Large Language Models
-
本文系统研究了长上下文LLM在段落排序中的应用,提出用 full ranking(一次性排序所有段落)替代传统滑动窗口策略,并设计了多轮滑动窗口标签构造方法和重要性感知损失函数来微调 full ranking 模型,在效率提升约30-65%的同时实现了排序效果的全面超越。
- Smarter, Better, Faster, Longer: A Modern Bidirectional Encoder for Fast, Memory Efficient, and Long Context Finetuning and Inference
-
提出 ModernBERT,将现代 LLM 架构优化(RoPE、GeGLU、交替局部/全局注意力、unpadding)系统性地引入 encoder-only 模型,在 2T token 上训练并原生支持 8192 上下文长度,在分类和检索任务上全面超越 BERT/RoBERTa/DeBERTaV3,同时推理速度和显存效率大幅领先。
- SpindleKV: A Novel KV Cache Reduction Method Balancing Both Shallow and Deep Layers
-
SpindleKV 提出分层处理 KV cache 压缩的策略——深层使用注意力驱动的 token eviction(利用稀疏注意力),浅层使用基于相似性学习的 codebook 替换(利用 token 间高相似度),并解决了 GQA 兼容性问题,实现 50% KV cache 缩减而不损失性能。
- Squeezed Attention: Accelerating Long Context Length LLM Inference
-
提出 Squeezed Attention,通过离线 K-means 聚类压缩固定上下文的 Key 向量,在推理时用质心匹配预测重要 Key 并仅对其计算精确注意力,实现 3.1 倍 KV 预算削减且无精度损失,预填充和生成阶段均获得超过 4 倍加速。
- Tetris: Optimal Draft Token Selection for Batch Speculative Decoding
-
Tetris 提出了一种在批量推测解码场景下,跨请求动态选择最优草稿token的方法,通过贪心选择累积接受概率最高的token来最大化有限计算资源下的推理吞吐量。
- How to Train Long-Context Language Models (Effectively)
-
本文系统研究如何通过持续预训练和 SFT 有效训练长上下文语言模型,提出数据配比、训练长度缩放、评估协议等一系列关键设计,最终训练出的 ProLong-8B 仅用 Llama-3.1 5% 的长上下文训练数据即在 128K 长度上达到同规模 SOTA。
- What are the Essential Factors in Crafting Effective Long Context Multi-Hop Instruction Datasets? Insights and Best Practices
-
提出多智能体交互式多跳生成(MIMG)框架,通过质量验证、单跳问题生成、多问题采样和多跳合并四个模块,系统性地合成高质量长上下文多跳指令数据,训练后模型平均提升7.54%,甚至超越更大规模人工标注数据集。