💬 LLM / NLP¶
🧪 ICML2025 · 28 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (36) · 📷 CVPR2026 (9) · 🔬 ICLR2026 (46) · 🤖 AAAI2026 (38) · 🧠 NeurIPS2025 (53) · 📹 ICCV2025 (8)
🔥 高频主题: LLM ×7 · 少样本学习 ×2 · 推理 ×2
- Adaptive Multi-prompt Contrastive Network for Few-shot Out-of-distribution Detection
-
提出 AMCN(Adaptive Multi-prompt Contrastive Network),通过生成三类自适应文本 prompt(可学习 ID prompt、标签固定 OOD prompt、标签自适应 OOD prompt)并结合类别自适应阈值,在仅有少量 ID 标注样本的条件下实现高质量 OOD 检测,显著超越现有 few-shot OOD 检测方法。
- B-score: Detecting biases in large language models using response history
-
提出B-score指标,通过比较LLM在单轮(single-turn)与多轮(multi-turn)对话中的回答概率差异来检测偏见,发现LLM在多轮对话中能"自我去偏",并利用B-score提升答案验证准确率。
- BEST-Route: Adaptive LLM Routing with Test-Time Optimal Compute
-
提出 BEST-Route(Best-of-n Enhanced Sampling and Test-time Route Optimization),在传统查询路由的基础上引入 best-of-n 采样策略,使路由器不仅选择模型,还自适应决定采样数量 n,通过小模型多次采样+选优替代大模型单次调用,在不到 1% 性能损失下降低高达 60% 的推理成本。
- Beyond Induction Heads: In-Context Meta Learning Induces Multi-Phase Circuit Emergence
-
本文通过设计 In-Context Meta-Learning (ICML) 实验环境,揭示了 Transformer 在获得上下文元学习能力的训练过程中,内部电路经历了三个截然不同的阶段性涌现(Bigram → Label Attention → Chunk Example),而非 induction head 研究中观察到的单阶段跃变,从而为理解 ICL 的深层机制提供了新视角。
- Binary Hypothesis Testing for Softmax Models and Leverage Score Models
-
从理论角度研究Softmax模型和Leverage Score模型的二元假设检验问题,建立了在能量约束下区分两个参数化模型所需的查询次数的紧界,与理解LLM不同能力域的区分性问题相关。
- Build Agent Advocates, Not Platform Agents
-
Position paper,指出LMA(语言模型代理)若被平台公司控制将成为加剧监控、锁定和注意力操控的"platform agents",提出应发展用户控制的"agent advocates"来保护个人自主权,并给出三大干预措施:开放模型/算力、互操作性标准、市场监管。
- Cover Learning for Large-Scale Topology Representation
-
提出 Cover Learning 作为一种统一的无监督学习问题,基于优化的视角设计三项损失函数(测度、几何、拓扑)学习数据集的拓扑忠实覆盖,所得单纯复形在拓扑推断中比标准几何复形更紧凑,在大规模拓扑可视化中比 Mapper 图能表示更高维信息。
- Defending LVLMs Against Vision Attacks through Partial-Perception Supervision
-
提出 DPS(Defense through Partial-Perception Supervision),利用裁剪图像的响应作为"弱监督"来引导全图模型在推理时自我修正,实现无需训练的黑盒 LVLM 视觉攻击防御,平均攻击成功率降低 76.3%。
- Emergent Symbolic Mechanisms Support Abstract Reasoning in Large Language Models
-
本文通过因果分析、表征分析和注意力分析等方法,在13个开源LLM中识别出支持抽象推理的三阶段涌现符号架构——符号抽象头将输入token转化为抽象变量、符号归纳头在抽象变量层面进行序列归纳、检索头根据预测的抽象变量检索对应值来完成下一token预测。
- Expert Evaluation of LLM World Models: A High-Tc Superconductivity Case Study
-
以高温超导(HTS)领域为案例,构建了专家级数据集(1,726篇论文 + 67道专家问题),系统评估6种LLM系统的科学文献理解能力,发现基于精选文献的RAG系统在事实完整性和证据支持方面显著优于通用闭源模型。
- Generalized Interpolating Discrete Diffusion
-
提出广义插值离散扩散框架 GIDD,将掩码扩散 (MDM) 推广为支持任意时变混合分布的扩散族,通过结合掩码与均匀噪声赋予模型自纠错能力,在扩散语言建模中取得 compute-matched SOTA。
- Interchangeable Token Embeddings for Extendable Vocabulary and Alpha-Equivalence
-
提出双部分 token 嵌入策略(共享可学习部分 + 随机区分部分),使语言模型能在训练后泛化到更大词表,并对 alpha-等价变换具有天然鲁棒性。
- LaRoSA: Enhancing LLM Efficiency via Layerwise Rotated Sparse Activation
-
LaRoSA 提出了一种无需训练的激活稀疏化方法,通过逐层正交旋转矩阵将输入激活变换到更适合稀疏化的空间,并结合 Top-K 选择实现一致的模型级稀疏度和可靠的推理加速。
- LASER: Attention with Exponential Transformation
-
通过分析注意力机制中 softmax 的梯度反向传播瓶颈,提出 LASER 注意力——在指数变换的 Value 空间中做注意力计算(即对 exp(V) 做 attention 再取 log),从而获得更大的 Jacobian 信号,改善参数学习效率。
- Position: LLM Social Simulations Are a Promising Research Method
-
这篇立场论文(position paper)主张 LLM 社会模拟是一种有前途的研究方法,通过综述实证比较和相关评论,识别了五个可解决的挑战,并提出方向性建议,认为 LLM 社会模拟已可用于试点和探索性研究。
- MERIT: Maximum-normalized Element-wise Ratio for Language Model Large-batch Training
-
提出 MERIT 优化器,通过最大范数归一化与逐元素信任比率扩展 LAMB,有效解决大批量训练中注意力 logit 爆炸导致的性能退化问题。
- On Expressive Power of Looped Transformers: Theoretical Analysis and Enhancement via Timestep Encoding
-
本文首次建立了 Looped Transformer 关于循环次数和目标函数连续性模的逼近速率理论,揭示了循环架构特有的逼近误差来源(上下文连续性与 token 连续性),并提出 Timestep-Modulated Looped Transformer (TMLT) 通过时间步编码消除该限制,在推理、上下文学习和语言建模任务上取得一致提升。
- Product of Experts with LLMs: Boosting Performance on ARC Is a Matter of Perspective
-
将 LLM 同时用作候选解生成器和评分器,通过基于 DFS 的搜索算法生成高概率候选解,再利用多视角增强下的 Product of Experts (PoE) 打分选出最优答案,在 ARC-AGI 公开评估集上以 71.6% 的准确率达到开源 SOTA,超越人类平均水平(60.2%),且单任务推理成本仅约 $0.02。
- QuEst: Enhancing Estimates of Quantile-Based Distributional Measures Using Model Predictions
-
提出 QuEst 框架,将少量高质量观测数据与大量模型预测(imputed)数据相结合,对分位数相关的分布度量(QBDM)给出更精确的点估计和严格的置信区间,覆盖 CVaR、Interval-VaR 等经典指标。
- Regress, Don't Guess — A Regression-like Loss on Number Tokens for Language Models
-
提出 Number Token Loss (NTL),一种纯 token 级别的回归式损失函数,通过最小化数值 token 之间的 \(L_p\) 范数或 Wasserstein 距离,为 LLM 注入数值邻近性归纳偏置。
- RULEBREAKERS: Challenging LLMs at the Crossroads between Formal Logic and Human-like Reasoning
-
构建首个大规模"规则破坏者"数据集 RULEBREAKERS(25,600 实例),系统评估 7 个 LLM 在形式逻辑推理与事实知识冲突时的表现,发现模型普遍倾向过度刚性地应用逻辑规则而忽略常识,与人类推理行为存在显著偏离。
- Safe Delta: Consistently Preserving Safety when Fine-Tuning LLMs on Diverse Datasets
-
Safe Delta提出了一种安全感知的后训练防御方法,通过估计安全退化程度、选择性保留delta参数以最大化效用同时限制安全损失、并施加安全补偿向量来弥补残余安全损失,在多种微调数据集(不同规模、任务类型)上一致地保持LLM安全性而不牺牲效用。
- Star Attention: Efficient LLM Inference over Long Sequences
-
提出Star Attention两阶段块稀疏注意力:第一阶段将上下文分块在多主机上局部注意力编码,第二阶段查询通过聚合全局注意力生成,无需微调即可兼容现有LLM,推理加速11倍且保持97-100%精度。
- TabFlex: Scaling Tabular Learning to Millions with Linear Attention
-
用线性注意力替换 TabPFN 中的 softmax 注意力,将表格分类的 ICL 方法从小数据集扩展到百万级样本,实现 2× 以上加速且性能不降。
- Taming Knowledge Conflicts in Language Models
-
揭示了语言模型注意力头中"上下文信息与参数记忆的叠加"(CP Superposition)现象,提出 JuICE(Just Run Twice)方法,通过双次推理的注意力干预策略,在不微调的前提下灵活引导模型偏向参数知识或上下文知识,在 11 个数据集 × 6 种模型架构上达到 SOTA。
- The Lock-in Hypothesis: Stagnation by Algorithm
-
本文提出并形式化了"锁定假说"(Lock-in Hypothesis):LLM 训练与部署过程中形成的人类-AI 反馈循环会固化用户的现有信念,导致群体观点多样性不可逆地丧失,甚至锁定在错误信念上。
- Theoretical Limitations of Ensembles in the Age of Overparameterization
-
在过参数化条件下,无限集成模型与单个无穷宽模型逐点等价,集成方差不再反映传统贝叶斯不确定性而是衡量增加模型容量的预期效果,从理论上解释了深度集成相比大模型无本质泛化优势的经验观察。
- Towards Universal Offline Black-Box Optimization via Learning Language Model Embeddings
-
提出UniSO框架,将不同类型和维度的优化变量统一编码为JSON字符串后输入语言模型,通过token预测(UniSO-T)和数值回归(UniSO-N)两种建模范式训练通用回归器,并通过元数据引导的对比学习和Lipschitz平滑正则化改善嵌入空间质量,实现了跨域跨维度的通用离线黑盒优化。