📦 模型压缩¶
🧪 ICML2025 · 71 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (42) · 📷 CVPR2026 (57) · 🔬 ICLR2026 (92) · 🤖 AAAI2026 (54) · 🧠 NeurIPS2025 (137) · 📹 ICCV2025 (48)
🔥 高频主题: LLM ×19 · 模型压缩 ×16 · 压缩/编码 ×8 · 知识蒸馏 ×3 · 持续学习 ×3
- A Mathematical Framework for AI-Human Integration in Work
-
本文提出了一个评估 AI-人类工作集成的数学框架,将技能分解为决策层和执行层两类子技能,理论证明了工作成功概率存在相变效应、互补技能融合可带来超加性收益,并解释了 GenAI 辅助中低技能工人获益更大的"生产力压缩"现象,通过 O*NET 和 Big-bench Lite 数据验证了框架的实用性。
- ABKD: Pursuing a Proper Allocation of the Probability Mass in Knowledge Distillation via α-β-Divergence
-
本文深入分析了知识蒸馏中 FKLD 和 RKLD 的概率质量分配缺陷,发现它们在 Hardness-Concentration 和 Confidence-Concentration 两种效应上分别处于极端,提出基于 α-β-divergence 的 ABKD 框架,通过调节 α 和 β 灵活平衡两种效应,在 17 个语言/视觉数据集、12 种师生配置上取得了 SOTA 性能。
- An Efficient Matrix Multiplication Algorithm for Accelerating Inference in Binary and Ternary Neural Networks
-
提出 RSR/RSR++ 算法——通过预处理固定的二值/三值权重矩阵构建分桶排列索引,实现 \(O(n^2/\log n)\) 复杂度的向量-矩阵乘法,比标准 \(O(n^2)\) 方法快最高 29× 的矩阵乘法、6× 的内存节省,并在 1.58-bit LLM 推理中实现 5.24× 加速。
- any4: Learned 4-bit Numeric Representation for LLMs
-
提出 any4——一种通过 k-means 聚类学习每行权重矩阵的最优 4-bit 非均匀量化码本的方法,无需权重/激活预处理,在 Llama 2/3、Mistral、Mixtral 上均优于 int4/fp4/nf4,且仅用单个校准样本即可。
- Best Subset Selection: Optimal Pursuit for Feature Selection and Elimination
-
本文从优化视角重新审视经典最优子集选择中的特征选择/消除准则,发现传统准则(相关性选择 + Wald-T 消除)仅捕获了目标函数的"一步变化"而忽视了特征交互,从而提出了"目标函数感知"的最优选择和消除准则,将其作为元替换(Meta-Substitution)即插即用地增强 OMP/CoSaMP/(A)BESS 等经典算法,在压缩感知和稀疏回归任务上实现显著性能提升且不增加计算复杂度。
- Beyond Communication Overhead: A Multilevel Monte Carlo Approach for Mitigating Compression Bias in Distributed Learning
-
本文提出了一种基于多级蒙特卡洛(MLMC)的梯度压缩方案,利用有偏压缩器构造统计无偏的梯度估计,将压缩偏差转化为可控方差,从而在保持有偏压缩器经验效率的同时享受无偏方法的理论保证,结合自适应概率优化在 BERT 微调和 CIFAR-10 上验证了优越性。
- Beyond Zero Initialization: Investigating the Impact of Non-Zero Initialization on LoRA Fine-Tuning Dynamics
-
从无限宽度视角理论分析并实验验证:LoRA 的 A、B 矩阵同时非零初始化(Init[AB])相比传统零初始化(Init[A])能显著提升对次优学习率的鲁棒性,且引入的随机噪声不影响微调性能——即微调不必严格从预训练模型出发。
- BlockDialect: Block-wise Fine-grained Mixed Format Quantization for Energy-Efficient LLM Inference
-
提出 BlockDialect——对权重和激活进行块级细粒度混合格式量化,为每个 block 从 FP4 变体(方言)格式书中选择最优数值格式,在 LLaMA3-8B 上比 MXFP4 准确率提升 10.78%,仅比全精度低 5.45%。
- BoA: Attention-aware Post-training Quantization without Backpropagation
-
提出 BoA——首个在训练后量化中考虑跨层依赖性的无反向传播算法,通过构建注意力感知 Hessian 矩阵捕捉注意力模块内的层间交互,在低位宽(INT2)下显著超越现有 PTQ 方法。
- Come Together, But Not Right Now: A Progressive Strategy to Boost Low-Rank Adaptation
-
提出 CoTo(Come Together),一种渐进式训练策略:在微调早期随机关闭 LoRA adapter,激活概率从 0 线性增长至 1,促使梯度在各层间均匀分布;理论上保证了 dropout 稳定性与线性模式连通性,实验表明可同时提升单任务泛化、多任务合并、剪枝鲁棒性并降低训练开销。
- Context Tuning for In-Context Optimization
-
提出 Context Tuning,用少样本示例初始化可训练的 prompt/KV 前缀,通过梯度优化上下文表示(而非模型参数)来增强 LLM 的 few-shot 适应能力,CT-KV 变体在线性时间复杂度下达到与 TTT 竞争的精度。
- Core Context Aware Transformers for Long Context Language Modeling
-
提出 Core Context Aware (CCA) Attention,通过全局感知池化将输入 token 动态压缩为少量核心 token,结合局部保持模块捕获邻近细粒度信息,实现即插即用地替换标准自注意力,在 128K 上下文下获得 7.9× 加速和 46% 显存节省,同时保持建模性能。
- Diffusion Sampling Correction via Approximately 10 Parameters
-
提出PCA-based Adaptive Search (PAS)方法,利用采样轨迹处于高维空间低维子空间的几何特性,通过PCA提取少量正交基向量并仅学习约10个坐标参数来修正现有快速采样器的截断误差,在单张A100上亚分钟训练即可将DDIM在CIFAR10上的FID从15.69降至4.37(NFE=10)。
- Distilling Tool Knowledge into Language Models via Back-Translated Traces
-
本文提出一个多智能体回译流水线,先用 Solver Agent 调用工具(代码解释器)解数学题生成 TIR trace,再用 Translator Agent + Rephrase Agent 将工具调用轨迹转化为纯自然语言推理链,最终用这些合成数据微调小模型,使其在无需工具访问的情况下内化工具知识和结构化推理能力。
- DLP: Dynamic Layerwise Pruning in Large Language Models
-
提出动态层级剪枝方法 DLP,利用权重与激活值的中位数自适应计算每层的相对重要性,按"越重要稀疏率越低"的原则进行非均匀剪枝,在 70% 高稀疏率下将 LLaMA2-7B 的困惑度降低 7.79、平均零样本准确率提升 2.7%。
- DRAGON: Guard LLM Unlearning in Context via Negative Detection and Reasoning
-
提出 DRAGON,一种无需微调的 LLM 遗忘框架,通过双层检测模块识别需遗忘的 prompt,再由 CoT guard 模型生成推理指令做上下文干预,在不修改模型参数的前提下实现高效遗忘。
- Efficient Logit-based Knowledge Distillation of Deep Spiking Neural Networks for Full-Range Timestep Deployment
-
提出一种时间维度解耦的 logit 蒸馏框架,利用 SNN 固有的时空特性,将训练目标分解到每个时间步,实现单模型在全范围推理时间步上的高性能部署,无需为不同时间步重新训练。
- Eigenspectrum Analysis of Neural Networks without Aspect Ratio Bias
-
论文提出 FARMS(Fixed-Aspect-Ratio Matrix Subsampling),通过固定长宽比子矩阵采样来消除权重特征谱分析中的长宽比偏差,从而显著提升基于 HT-SR 的分层学习率分配与模型剪枝效果。
- FGFP: A Fractional Gaussian Filter and Pruning for Deep Neural Networks Compression
-
提出 FGFP 框架,将分数阶微积分与高斯函数结合构建分数阶高斯滤波器(FGF),每个卷积核仅需 7 个参数,配合自适应非结构化剪枝(AUP),在 CIFAR-10 上 ResNet-20 精度仅降 1.52% 即实现 85.2% 的模型压缩率,在 ImageNet 上 ResNet-50 精度降 1.63% 实现 69.1% 压缩率。
- FGFP: A Fractional Gaussian Filter and Pruning for DNN Compression
-
提出FGFP框架,将分数阶微积分与高斯函数结合构建分数阶高斯滤波器(FGF)替代标准卷积核,每个核仅需7个参数,配合自适应非结构化剪枝达到极高压缩比(ResNet-20 85.2%压缩仅降1.52%精度)。
- FlatQuant: Flatness Matters for LLM Quantization
-
提出 FlatQuant,通过可学习仿射变换(Kronecker 分解)使权重和激活分布更平坦,在 W4A4 量化下首次在 LLaMA-3-70B 上实现 ≤1% 精度损失,同时 prefill 加速 2.3×、decoding 加速 1.7×。
- FloE: On-the-Fly MoE Inference on Memory-constrained GPU
-
提出 FloE,一个面向消费级 GPU 的 MoE 即时推理系统,通过专家内部混合压缩(上下文稀疏化 + 超低比特量化)和双预测器实现计算-传输流水线化,在 RTX 3090 上仅 11GB 显存即可部署 Mixtral-8×7B,相比 DeepSpeed-MII 加速 48.7 倍,性能仅下降 4.4%~7.6%。
- From Language Models over Tokens to Language Models over Characters
-
提出将 token 级语言模型精确转换为字符级语言模型的算法框架,通过定义 covering(最小前缀编码集合)并基于 beam search 近似求解,解决了 prompt boundary 等 token 化导致的用户端问题,同时改善了压缩率(bits/byte)。
- From Logits to Hierarchies: Hierarchical Clustering made Simple
-
提出 L2H(Logits to Hierarchies)算法,仅利用预训练平面聚类模型的 logits 输出,通过掩码 softmax 和迭代合并策略,在无需微调的情况下构建高质量层次聚类,大幅超越专用深度层次聚类模型,且在 ImageNet 规模数据集上 CPU 运行不到一分钟。
- From Low Rank Gradient Subspace Stabilization to Low-Rank Weights: Observations, Theories, and Applications
-
通过 Hessian 谱分析揭示 LLM 不同权重矩阵的低秩收敛差异,据此提出 WeLore——同时统一模型压缩与参数高效微调的非均匀低秩分解方法。
- Function-Space Learning Rates
-
提出逐层函数空间学习率的高效蒙特卡洛估计方法,并基于此设计 FLeRM(Function-space Learning Rate Matching),在小模型上记录函数空间学习率,自动调整大模型的参数空间学习率,实现跨宽度、深度、初始化尺度和 LoRA rank 的超参数迁移。
- Generalization Bounds via Meta-Learned Model Representations: PAC-Bayes and Sample Compression Hypernetworks
-
本文提出了一种基于 hypernetwork 的 meta-learning 框架来获取神经网络的紧泛化界,设计了三种 encoder-decoder 架构(PAC-Bayes 编码器、样本压缩编码器、混合编码器),其中混合方法基于一个新的 PAC-Bayes 样本压缩定理支持连续消息,通过信息瓶颈显式度量模型复杂度,在合成和真实数据集上获得了非空洞的泛化保证。
- GPTAQ: Efficient Finetuning-Free Quantization for Asymmetric Calibration
-
GPTAQ 提出了一种非对称校准(asymmetric calibration)的无微调量化方法,通过将量化层输出与全精度模型的精确输出对齐(而非仅当前层输出),并利用最优脑压缩框架推导闭式解来同时最小化量化误差和累积非对称误差,仅增加约 20 行代码即显著提升 GPTQ 在低比特量化下的性能。
- GuidedQuant: Large Language Model Quantization via Exploiting End Loss Guidance
-
提出 GuidedQuant,通过将端到端损失的梯度信息融入逐层量化目标(保留输出通道内的权重交互),作为即插即用模块显著提升现有 SOTA PTQ 方法在标量/向量/权重-激活量化上的性能;同时提出 LNQ 算法用于非均匀标量量化,实现 2-bit 下 Llama-2-7B perplexity 从 39.58 降至 8.83。
- Gumiho: A Hybrid Architecture to Prioritize Early Tokens in Speculative Decoding
-
提出 Gumiho,一种用于推测解码的混合 draft 模型架构:前两个 token 使用串行 Transformer 以确保精度,后续 token 使用并行 MLP heads 以提升效率,并通过 Full Tree Attention 机制进一步增加接受长度,在 Vicuna/LLaMA 上实现了最高 3.65x 加速。
- Instruction-Following Pruning for Large Language Models
-
提出 IFPruning:用一个小型稀疏预测器根据用户指令动态生成剪枝掩码,将 FFN 中间维度按需裁减,使 9B 模型仅激活 3B 参数即可在编程/数学上超越同规模 dense 模型 5-8 个百分点,且推理延迟与 3B dense 模型持平。
- Joker: Joint Optimization Framework for Lightweight Kernel Machines
-
提出 Joker 框架,通过对偶块坐标下降 + 信赖域 (DBCD-TR) 和随机傅里叶特征近似,以 ~2GB 内存实现多种大规模核模型(KRR / KLR / SVM 等)的统一高效训练,内存节省高达 90% 且性能不降。
- LaCache: Ladder-Shaped KV Caching for Efficient Long-Context Modeling of Large Language Models
-
提出梯形(ladder-shaped)KV 缓存模式,在不同层保留不同 token 范围的 KV 状态,从而在固定缓存预算下扩展可捕获的上下文跨度,并通过迭代压缩机制支持无限长度的连续生成。
- Lego Sketch: A Scalable Memory-augmented Neural Network for Sketching Data Streams
-
提出 Lego Sketch,一种基于模块化"记忆积木"的可扩展记忆增强神经网络(MANN),通过 normalized multi-hash embedding、可扩展内存和自引导加权损失,解决了现有 neural sketch 在跨数据域和不同空间预算下需要重新训练的可扩展性难题,并首次给出了 neural sketch 的误差上界。
- LIFT the Veil for the Truth: Principal Weights Emerge after Rank Reduction for Reliable Model Merging
-
发现低秩近似后幅值最大的权重(Principal Weights)是微调关键参数,提出 LIFT——仅更新 top 5% 的 Principal Weights 就在推理任务上超越全参数微调,同时保持 LoRA 级别的内存效率。
- Liger: Linearizing Large Language Models to Gated Recurrent Structures
-
Liger 将预训练 Transformer LLM 无额外参数地转换为门控线性循环结构,利用 Key 投影矩阵复用构建门控机制,仅需 0.02% 预训练 token 即可恢复原模型 93% 的性能,同时获得线性时间推理和恒定显存开销。
- LoRA Fine-Tuning without GPUs: A CPU-Efficient Meta-Generation Framework for LLMs
-
提出在 CPU 上高效进行 LoRA 微调的元生成框架,通过预计算和缓存策略避免 GPU 依赖,使资源受限环境下的 LLM 微调成为可能。
- Make LoRA Great Again: Boosting LoRA with Adaptive Singular Values and Mixture-of-Experts Optimization Alignment
-
GOAT 通过“按 SVD 分段初始化的 LoRA-MoE + 理论推导的缩放对齐”,在不改训练算法和主体架构的前提下显著提升 LoRA 表现,并在 25 个任务上达到 SOTA、明显缩小与 Full FT 的差距。
- Merge-Friendly Post-Training Quantization for Multi-Target Domain Adaptation
-
首次系统分析量化引入的离散化噪声如何破坏模型融合效果,提出 HDRQ(Hessian and Distance Regularizing Quantization)——通过 Hessian 正则化平坦化损失曲面 + 距离正则化保持量化模型间权重对齐 + 噪声采样舍入消除舍入歧义,使量化模型在多目标域适应融合中性能接近全精度水平。
- MKA: Memory-Keyed Attention for Efficient Long-Context Reasoning
-
提出 Memory-Keyed Attention (MKA),将 KV 缓存组织为三级分层记忆(局部/会话/长期),通过可学习路由门动态分配注意力;加速版 FastMKA 在注意力计算前融合记忆源,实现训练吞吐量达 MLA 的 5 倍、解码延迟降至 MLA 的 54%,perplexity 仅损失约 1%。
- MoRAgent: Parameter Efficient Agent Tuning with Mixture-of-Roles
-
提出 Mixture-of-Roles (MoR) 框架,将 Agent 能力分解为推理者、执行者、总结者三个角色,每个角色分配专门的 LoRA 组,以极少额外参数(0.16B–0.36B)实现接近甚至超越全参数微调的 Agent 性能。
- Neutral Residues: Revisiting Adapters for Model Extension
-
提出 Neutral Residues,通过在 adapter 中引入 ReLU 门控 + \(\ell_1\) 稀疏局部损失 + 低方差初始化,使新增残差块在原始分布上输出近零值,在 Gemma-2B 上实现新语言学习与英语保持的最佳权衡。
- Olica: Efficient Structured Pruning of Large Language Models without Retraining
-
提出 Olica 框架,通过对 MHA 层矩阵乘积做正交分解(PCA/SVD)并对 FFN 层做线性校准(岭回归闭式解 + 低秩近似),实现 LLM 结构化剪枝无需重训练,仅需 256 样本、3GB 显存、7 分钟即可完成 LLaMA-7B 剪枝且性能优于需要重训练的方法。
- OrthoRank: Token Selection via Sink Token Orthogonality for Efficient LLM Inference
-
提出 OrthoRank,一种无需额外训练的动态 token 选择方法:利用 sink token 与其他 token 在隐藏状态空间中的正交性来衡量 token 重要性,在每层选出 Top-K 重要 token 进行完整计算,其余 token 仅参与 KV 计算,在相同稀疏率下实现比层剪枝更低的困惑度和更高的零样本准确率。
- ParallelComp: Parallel Long-Context Compressor for Length Extrapolation
-
提出 ParallelComp,一种免训练的并行长上下文压缩方法,通过并行 KV cache 驱逐和注意力校准策略,使 8B 参数 LLM 在单块 A100 GPU 上从 8K 外推至 128K tokens。
- Parameter-Efficient Fine-Tuning of State Space Models
-
首次系统性基准测试 6 种 PEFT 方法在 SSM(Mamba)上的表现,发现 LoRA 应作用于线性投影层而非 SSM 模块,并提出 SDT(稀疏维度调优)方法选择性更新关键状态维度以更高效地微调 SSM 参数。
- Persistent Topological Features in Large Language Models
-
将拓扑数据分析中的 zigzag persistence 引入 LLM 内部表征分析,通过追踪 prompt 在各层表示空间中拓扑特征的持续演化,识别出四个处理阶段,并基于拓扑描述子提出了一种层剪枝准则,效果可比肩 SOTA 方法。
- Predictive Data Selection: The Data That Predicts Is the Data That Teaches
-
提出 PreSelect 方法,基于"能预测模型能力的数据就是能教会模型的数据"这一假设,利用多模型损失排名相关性量化文档预测强度,训练 fastText 分类器实现高效数据选择,在 1B 模型上用 30B tokens 超越随机选取 300B tokens 的性能,实现 10 倍计算节省。
- Q-resafe: Assessing Safety Risks and Quantization-aware Safety Patching for Quantized Large Language Models
-
系统评估了主流量化方法(AWQ、AQLM、LLM-QAT、QLoRA)在不同校准数据集和位宽下对LLM安全性的影响,发现所有量化方法均导致ASR大幅上升(0.3%→85%),并提出Q-resafe框架通过安全补丁数据构建+DPO对齐+选择性安全关键权重更新,以极低计算开销高效恢复量化模型的安全能力。
- RADIO: Rate-Distortion Optimization for Large Language Model Compression
-
RADIO 从信息论中的率失真理论(Rate-Distortion Theory)出发,为 LLM 量化建立了理论基础,并提出了一种基于率失真优化的简洁量化技术,可扩展至数千亿参数模型,且允许用户灵活指定目标模型大小或精度进行后训练压缩。
- Random Initialization of Gated Sparse Adapters (RIGSA)
-
提出 RIGSA,一种基于随机初始化全秩适配器 + ReZero 门控 + 迭代幅度剪枝的稀疏微调方法,在学习新任务的同时比 QLoRA 更好地保留源任务性能。
- Rethinking Addressing in Language Models via Contextualized Equivariant Positional Encoding
-
本文提出 TAPE(contexTualized equivariAnt Position Encoding),通过在各层动态地根据序列内容更新位置编码来取代传统的固定位置模式,同时强制排列和正交等变性以保证稳定性,在语言建模、算术推理和长上下文检索任务上显著超越现有位置编码方法。
- Rethinking the Stability-Plasticity Trade-off in Continual Learning from an Architectural Perspective
-
揭示了持续学习中稳定性与可塑性之间在架构层面的固有冲突——宽浅网络稳定性好、深窄网络可塑性强——并提出 Dual-Arch 框架,用两个专用轻量架构分别负责稳定性和可塑性,通过知识蒸馏协同,实现参数量减少最高 87% 的同时提升 CL 性能。
- RocketKV: Accelerating Long-Context LLM Inference via Two-Stage KV Cache Compression
-
提出 RocketKV,一种无需训练的两阶段 KV 缓存压缩方法:第一阶段用 SnapKV 做粗粒度永久驱逐,第二阶段用混合稀疏注意力(HSA)做细粒度动态 top-k 选择,在 Mistral-7B 等模型上实现高达 400× 压缩比、3.7× 端到端加速和 32.6% 峰值内存节省,精度损失可忽略。
- SAFE: Finding Sparse and Flat Minima to Improve Pruning
-
将剪枝问题建模为稀疏约束下的锐度感知优化问题,通过增广拉格朗日对偶法(ADMM)求解,同时实现稀疏性和平坦极小值,提升剪枝后网络的泛化性能和鲁棒性。
- Semantic Shift Estimation via Dual-Projection and Classifier Reconstruction for Exemplar-Free Class-Incremental Learning
-
提出 DPCR 方法,通过双投影(任务级 TSSP + 类别级 CIP)估计语义漂移,并用岭回归无BP地重建分类器,同时解决无样例类增量学习中的语义漂移和决策偏差问题,在多个基准上超越 SOTA。
- Sketch to Adapt: Fine-Tunable Sketches for Efficient LLM Adaptation
-
SpaLLM 提出了一种基于 sketching 的参数共享方法来统一 LLM 的压缩和微调过程,将预训练权重压缩为查找表(LUT)后直接在表值上微调,避免了 QLoRA 等双塔架构的低秩假设和实现复杂性,在多项基准上以更少的训练参数取得了优于 QLoRA/LoftQ 的性能。
- SlimLLM: Accurate Structured Pruning for Large Language Models
-
提出SlimLLM——LLM结构化剪枝方法:用特征空间重要性(考虑权重方向和幅度)评估通道,用Pearson相似度整体评估注意力头,配合简单线性回归恢复策略和层级剪枝比例分配,在LLaMA上20%剪枝保留98.7%性能。
- Sparse Spectral Training and Inference on Euclidean and Hyperbolic Neural Networks
-
提出 Sparse Spectral Training (SST),通过在谱域上每步更新全部奇异值、按奇异值大小多项式采样选择性更新奇异向量,并周期性 re-SVD 保持正交性,实现接近全秩训练的预训练效果,同时显存开销与 LoRA 相当。
- Speculative Decoding in Decentralized LLM Inference: Turning Communication Latency into Computation Throughput
-
提出 Decentralized Speculative Decoding (DSD),一种即插即用的去中心化LLM推理加速框架,通过将跨节点通信等待时间转化为有效计算,结合基于语义重要性的自适应验证策略,在无需重训练的前提下实现最高 2.59× 的端到端加速。
- Steer LLM Latents for Hallucination Detection
-
提出 Truthfulness Separator Vector (TSV),一种轻量级 steering vector,在推理时重塑 LLM 表示空间以增强真实与幻觉输出的分离,仅需 32 个标注样本即可接近全监督性能。
- Strategic Fusion Optimizes Transformer Compression
-
本文提出 Strategic Fusion 框架,将 12 种基于激活值/互信息/梯度/权重/注意力的层剪枝信号通过线性回归和随机森林进行融合,在 BERT 模型和 9 个文本分类数据集上验证了多信号融合剪枝优于单信号策略,结合知识蒸馏后准确率-模型大小比平均提升 18.84 倍。
- Text-to-LoRA: Instant Transformer Adaption
-
Text-to-LoRA (T2L) 训练了一个超网络(hypernetwork),仅凭自然语言任务描述就能在单次前向传播中为 LLM 生成任务特定的 LoRA 适配器,在 9 个训练任务上匹配专门微调的 LoRA 性能,并能零样本泛化到未见过的任务,实现了语言驱动的即时模型适配。
- Toward Data-centric Directed Graph Learning: An Entropy-driven Approach
-
提出 EDEN(Entropy-driven Digraph Knowledge Distillation),从数据中心视角构建层级知识树(HKT),通过有向拓扑结构度量和节点互信息量化,揭示有向图中拓扑与节点属性的潜在关联,作为即插即用模块可为任意 DiGNN 带来平均 2-5% 的性能提升,在 14 个数据集和 4 个下游任务上取得 SOTA。
- Towards an Optimal Control Perspective of ResNet Training
-
将 ResNet 训练形式化为最优控制问题,通过在中间层添加阶段成本 (stage cost) 损失实现自正则化,证明多余的深层权重渐近趋零,为理论驱动的层剪枝奠定基础。
- Training a Generally Curious Agent (Paprika)
-
提出 Paprika 框架,通过在多种文本决策任务上微调 LLM,使模型学会通用的信息收集和决策能力,并能零样本迁移到完全未见的任务。
- TreeLoRA: Efficient Continual Learning via Layer-Wise LoRAs Guided by a Hierarchical Gradient-Similarity Tree
-
本文提出 TreeLoRA,通过构建基于梯度相似度的层级 K-D 树来组织历史任务的 LoRA 适配器,利用 Lower Confidence Bound (LCB) 多臂老虎机算法高效搜索最相关的任务分支实现知识共享,配合稀疏梯度更新,在 ViT 上实现 3.2× 加速、LLM 上 2.4× 加速,同时维持或超越 SOTA 性能。
- VocabTrim: Vocabulary Pruning for Efficient Speculative Decoding in LLMs
-
提出 VocabTrim,一种免训练方法,通过剪枝 draft 模型的 LM head 词汇表来减少推测解码中的 draft 延迟,在 Llama-3 上实现 16% 的内存受限加速提升。
- Weak-to-Strong Jailbreaking on Large Language Models
-
本文提出 weak-to-strong 越狱攻击:利用两个小模型(一个安全、一个不安全)在推理时通过对数概率代数修改大模型的解码分布,仅需一次前向传播即可将对齐大模型的恶意回复率提升至 99% 以上,揭示了 LLM 对齐中一个此前未被注意的高效攻击面。
- When Data-Free Knowledge Distillation Meets Non-Transferable Teacher: Escaping Out-of-Distribution
-
本文研究了在教师模型为"不可迁移"(non-transferable)设计时无数据知识蒸馏面临的挑战——合成样本容易落入分布外区域导致蒸馏失败,提出了逃逸分布外区域(escaping OOD)的方法来实现有效蒸馏。
- WildChat-50m: A Deep Dive Into the Role of Synthetic Data in Post-Training
-
构建迄今最大的公开聊天数据集 WildChat-50m(50+ 开源模型 × 100万+ 对话 = 1.25 亿条转录),系统研究不同数据生成模型(DGM)的合成数据质量,并设计 Re-Wild SFT 混合方案,仅用 Tulu-3 SFT 数据量的 40% 即在多项基准上超越其表现。