💡 LLM 推理¶
🤖 AAAI2026 · 30 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (37) · 📷 CVPR2026 (16) · 🔬 ICLR2026 (71) · 🧠 NeurIPS2025 (67) · 📹 ICCV2025 (3) · 🧪 ICML2025 (17)
🔥 高频主题: 推理 ×17 · LLM ×5 · 对抗鲁棒 ×3 · 代码智能 ×2 · 强化学习 ×2
- A Reasoning Paradigm for Named Entity Recognition
-
提出 ReasoningNER,将命名实体识别从"隐式模式匹配"转变为"显式推理"范式,通过三阶段流程(CoT数据构建→CoT微调→GRPO强化增强)让模型先推理再抽取实体,在零样本设定下F1超GPT-4达12.3个百分点,8B模型在CrossNER上达72.4平均F1。
- Answering the Unanswerable Is to Err Knowingly: Analyzing and Mitigating Abstention Failures in Large Reasoning Models
-
系统分析大推理模型(LRM)面对不可回答数学题时的弃权失败现象,发现LRM内部有足够认知能力识别问题不可解(探针分类准确率>80%)但外部行为仍偏向强答,提出认知监控+推理时干预的两阶段方法,将弃权率从16-54%提升至60-92%且不损害可回答题的推理性能。
- ARCHE: A Novel Task to Evaluate LLMs on Latent Reasoning Chain Extraction
-
提出潜在推理链提取 (ARCHE) 任务,要求 LLM 将科学论文中的论证分解为基于 Peirce 三种推理范式的推理逻辑树 (RLT),并通过 Entity Coverage 和 Reasoning Edge Accuracy 两个指标揭示了 10 个主流 LLM 在内容完整性与逻辑正确性之间的本质权衡。
- BadThink: Triggered Overthinking Attacks on Chain-of-Thought Reasoning in Large Language Models
-
提出 BadThink——首个针对 CoT 推理效率的训练时后门攻击,通过 LLM 迭代优化生成自然的冗长推理模板进行数据投毒,触发后模型生成膨胀 17× 以上的推理链(MATH-500),同时保持最终答案正确和良好隐蔽性。
- BLM-Guard: Explainable Multimodal Ad Moderation with Chain-of-Thought and Policy-Aligned Rewards
-
提出 BLM-Guard,一个面向短视频商业广告的可解释多模态审核框架:先通过 Rule-driven ICoT 数据合成 + SFT 冷启动建立结构化推理能力,再用 Self-Adaptive GRPO 强化学习(结合规则正确性奖励 + 自适应一致性奖励 SCA-R)优化策略对齐,在真实广告 benchmark 上达到 91.4% 严格准确率和 0.845 推理一致性分数。
- Chain-of-Thought Driven Adversarial Scenario Extrapolation for Robust Language Models
-
提出 ASE(Adversarial Scenario Extrapolation),一种推理时 CoT 防御框架,让 LLM 在回答前自主模拟对抗场景并制定防御策略,在四类安全威胁(越狱、毒性、幻觉、偏见)上实现近零攻击成功率,同时将直接拒绝率降至≤4%,兼顾鲁棒性和用户体验。
- CMMCoT: Enhancing Complex Multi-Image Comprehension via Multi-Modal Chain-of-Thought and Memory Augmentation
-
提出 CMMCoT 框架,通过构建交错的多模态多步推理链(含视觉区域 token 监督)和测试时检索式记忆增强模块(RIFREM),在不增加参数的前提下提升多图场景下的慢思考推理能力,基于 Qwen2.5-VL-7B 在多图基准上平均提升 1.4 分。
- Deep Hidden Cognition Facilitates Reliable Chain-of-Thought Reasoning
-
本文发现 LLM 在 CoT 推理过程中,中间层的注意力头激活值隐式编码了推理步骤的真实性信息(最高 85% 探测准确率),据此训练置信度预测器引导 Beam Search 动态选择高置信度推理路径,在数学/符号/常识推理任务上超越 Self-Consistency 和 PRM Guided Search。
- Dropouts in Confidence: Moral Uncertainty in Human-LLM Alignment
-
系统研究 32 个开源 LLM 在道德困境(电车问题)中的决策不确定性,发现不确定性主要受模型架构而非道德维度驱动;在推理时引入 attention dropout 增加随机性后,模型的互信息显著上升,human-LLM 道德对齐度也随之改善——表明降低 LLM 在道德场景中的过度自信可以改善与人类偏好的一致性。
- Efficient Thought Space Exploration Through Strategic Intervention
-
提出 Hint-Practice Reasoning(HPR)框架,通过大模型(hinter)在稀疏关键 token 处提供短提示、小模型(practitioner)完成主要推理的协作模式,仅需1/5的 token 即可达到 self-consistency 基线的性能,同时在相同 FLOPs 下精度最高提升5.1%。
- ESG-Bench: Benchmarking Long-Context ESG Reports for Hallucination Mitigation
-
构建 ESG-Bench——270 个人工标注 QA 对来自 94 份真实 ESG 报告(2020-2024),提出三阶段幻觉缓解:SFT(有基础答案+「不提供」弃权标签)→ CoT Prompting(2/4步提示模板)→ CoT 微调(人工推理链),其中 4 步 CoT 微调的 Llama-3 达到 92.52% 有答案准确率 + 99.37% 无答案准确率(平衡 96%),且迁移到 HaluEval/BioASQ 也有提升。
- Evaluating, Synthesizing, and Enhancing for Customer Support Conversation
-
基于COPC行业标准定义客服对话的5个阶段和12种策略,通过5个LLM Agent角色扮演生成11232条策略丰富的合成对话(RoleCS),并构建1855条真实对话改写的评估集(CSConv),微调后显著提升策略对齐的回复质量和问题解决率。
- ExtendAttack: Attacking Servers of LRMs via Extending Reasoning
-
提出 ExtendAttack,一种针对大推理模型(LRM)的资源耗尽攻击:通过将 prompt 中的字符随机转换为多进制 ASCII 编码,迫使模型在回答问题前先执行大量逐字符解码推理,使 o3 的响应长度增加 2.7 倍以上、延迟翻倍,同时保持答案准确率基本不变。
- Graph of Verification: Structured Verification of LLM Reasoning with Directed Acyclic Graphs
-
提出 Graph of Verification (GoV),一种将 LLM 推理过程建模为有向无环图 (DAG) 的结构化验证框架,通过灵活的节点块(Node Block)架构实现多粒度验证——从形式化任务的原子步骤到自然语言叙述的段落级验证——在结构化和松散结构化推理基准上均显著优于整体验证和其他分解验证方法。
- Improving Value-based Process Verifier via Low-Cost Variance Reduction
-
针对基于值的过程验证器(PRM)训练中蒙特卡罗(MC)估计因采样数有限导致的高方差问题,提出Compound Monte Carlo Sampling (ComMCS)方法,通过线性组合当前步和后续步的MC估计量来无偏地降低方差,无需额外LLM推理开销,在MATH-500上Best-of-32实验中提升2.2个点。
- Incorporating Self-Rewriting into Large Language Model Reasoning Reinforcement
-
提出Self-Rewriting框架,让LRM在RL训练中对"简单"样本(全部回答正确的query)重写自身推理文本并从中学习,仅增加约10%训练开销即可在保持准确率的同时将推理长度减少46%,内部推理质量(LLM-as-Judge)提升7.2分,有效缓解过度思考、冗余思考等问题。
- Intention Chain-of-Thought Prompting with Dynamic Routing for Code Generation
-
提出 RoutingGen——基于认知经济原则的难度感知代码生成框架:用 Qwen3-8B 分类器动态路由任务到简单路径(few-shot 直接生成)或复杂路径(Intention CoT = 规格约束 + 算法意图 + 复杂度分析),在 McEval 上提升 +45.15% 同时平均减少 46.37% token 消耗。
- Jupiter: Enhancing LLM Data Analysis Capabilities via Notebook and Inference-Time Value-Guided Search
-
构建NbQA数据集(从真实Jupyter Notebook提取3.8万task-solution对)+ 提出Jupiter框架(将数据分析建模为状态级搜索问题,用值模型引导PUCT搜索),使Qwen2.5-14B在InfiAgent-DABench上达86.38%超越GPT-4o(85.99%),Qwen2.5-7B在DSBench上从63.51%提升至89.19%。
- L2V-CoT: Cross-Modal Transfer of Chain-of-Thought Reasoning via Latent Intervention
-
通过 LAT 分析发现 LLM 和 VLM 的低频 CoT 方向表示具有相似分布,提出 L2V-CoT:从 LLM 提取 CoT 方向表示 → 低通滤波 → 频域重采样匹配维度 → 注入 VLM 隐藏层,training-free 地将 LLM 的推理能力迁移到 VLM,平均提升 3.7%,最高 8.6%。
- LLMs for Game Theory: Entropy-Guided In-Context Learning and Adaptive CoT Reasoning
-
提出一种基于熵引导的自适应 LLM 推理框架,结合动态上下文检索和自适应链式思维(CoT)推理,在井字棋博弈任务中将 LLM 的平均对局结果从 -11.6% 提升至 +9.5%,同时保持较低的 LLM 查询次数。
- Relation-R1: Progressively Cognitive Chain-of-Thought Guided Reinforcement Learning for Unified Relation Comprehension
-
提出 Relation-R1,首个统一二元和 N 元关系理解的框架,通过渐进式认知 CoT 引导的 SFT + GRPO 多奖励优化,仅 3B 参数即超越 13B 模型,在 PSG 上 Mean 达 21.20%(+6.87%),SWiG 全指标 SOTA(Grnd-all 30.18%,+14.48%)。
- RPM-MCTS: Knowledge-Retrieval as Process Reward Model with Monte Carlo Tree Search for Code Generation
-
提出 RPM-MCTS——用知识库检索替代训练的过程奖励模型(PRM)来指导代码生成的 MCTS 搜索。利用同类算法实现的同质性,从知识库中检索正确算法步骤作为评估信号,配合相似度过滤去除冗余扩展节点和沙箱执行定位错误,实现 ~15% token 减少同时超越 SOTA。
- SAPO: Self-Adaptive Process Optimization Makes Small Reasoners Stronger
-
受神经科学中Error-Related Negativity启发,提出自适应过程优化方法SAPO,通过首错检测+局部后验估计替代低效的逐步蒙特卡洛rollout,在降低2-3倍计算成本的同时实现推理器-验证器协同优化,使小语言模型(≤2B)在数学和代码推理任务上超越多数自演化方法。
- SCALE: Selective Resource Allocation for Overcoming Performance Bottlenecks in Mathematical Test-time Scaling
-
基于认知科学的双过程理论,提出SCALE框架将数学问题分解为子问题后按难度分配不同计算资源(System 1快速计算 vs System 2深度推理),在AIME25上将Qwen3-32B从57.50%提升至71.25%,同时比InftyThink节省33-53%的token。
- SERL: Self-Examining Reinforcement Learning on Open-Domain
-
提出SERL自我改进框架,LLM同时作为Actor(生成者)和Judge(评估者),用Copeland成对比较方法从自身判断中推导奖励信号,无需外部奖励模型或人工标注,使Qwen3-8B在AlpacaEval 2.0上从52.37%提升到59.90%(+7.53%),接近Qwen3-32B水平。
- Small Language Models for Efficient Agentic Tool Calling: Outperforming Large Models with Targeted Fine-tuning
-
通过对OPT-350M模型进行单epoch的SFT微调,在ToolBench评估中取得77.55%的通过率,大幅超越ChatGPT-CoT(26%)、ToolLLaMA-DFS(30.18%)等大模型基线,证明了针对性微调的小模型在特定任务上可显著超越通用大模型。
- SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision
-
提出 SPARE 框架,通过单次结构化生成同时完成解题步骤与参考解的对齐和准确性判断(含显式推理),无需额外训练数据,比 MCTS 方法快 2.3 倍且仅需 16% 训练样本即可实现 OOD 泛化。
- Stable Voting and the Splitting of Cycles
-
研究Simple Stable Voting (SSV)——已在数百次实际选举中使用的递归投票规则——是否总是精化(refine)Split Cycle (SC)方法的猜想,通过数学证明(≤5候选人)和SAT求解(6-7候选人)确定:猜想在≤6候选人时成立,≥7候选人时被反驳,并通过构造性证明推广到任意多候选人。
- Text-to-Scene with Large Reasoning Models
-
提出Reason-3D,利用大推理模型(LRM)的多步空间推理能力,通过语义投票式物体检索+双阶段布局(自回归放置+碰撞感知优化)实现从文本到3D场景的零样本生成,在人工评价中Elo评分达2248(远超Holodeck的1500和LayoutVLM的1650)。
- Trade-offs in Large Reasoning Models: An Empirical Analysis of Deliberative and Adaptive Reasoning over Foundational Capabilities
-
系统评估了LRM(如DeepSeek-R1、QwQ、OpenThinker等)在获取深度推理能力后对基础能力(helpfulness和harmlessness)的负面影响,发现deliberative reasoning显著降低指令遵循和安全性能力,并提出Zero-Thinking、Less-Thinking、Summary-Thinking等自适应推理模式可有效缓解这些缺陷。