跳转至

💡 LLM 推理

💬 ACL2025 · 57 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (37) · 📷 CVPR2026 (16) · 🔬 ICLR2026 (71) · 🤖 AAAI2026 (30) · 🧠 NeurIPS2025 (67) · 📹 ICCV2025 (3)

🔥 高频主题: 推理 ×44 · LLM ×12 · 问答 ×2 · 多模态 ×2

An Efficient and Precise Training Data Construction Framework for Process-Supervised Reward Model in Mathematical Reasoning

本文提出EpicPRM框架,通过基于困惑度(perplexity)的Monte Carlo估计量化每个推理步骤的贡献度,并使用自适应二分搜索高效定位首个错误步骤,构建了高质量的过程监督数据集Epic50k(仅50k标注步骤),训练出的PRM性能可媲美甚至超越在PRM800k上训练的模型。

Aristotle: Mastering Logical Reasoning with A Logic-Complete Decompose-Search-Resolve Framework

提出 Aristotle 逻辑推理框架,将符号表达式和逻辑规则全面融入 Decompose-Search-Resolve 的每个阶段,通过逻辑分解器、搜索路由器和消解器三大组件实现逻辑完备的推理,在多个逻辑推理基准上以 GPT-4 平均提升 4.5%、GPT-4o 平均提升 5.4% 超越 SOTA。

Beyond the Answer: Advancing Multi-Hop QA with Fine-Grained Graph Reasoning and Evaluation

本文针对多跳问答(Multi-hop QA)任务中推理过程不透明、评估粒度粗糙的问题,提出了一种基于细粒度图推理的框架,通过构建推理图来显式建模证据链,并引入细粒度评估指标来衡量推理过程的质量,而非仅关注最终答案的正确性。

BPP-Search: Enhancing Tree of Thought Reasoning for Mathematical Modeling Problem Solving

提出 BPP-Search 算法,将 Beam Search、过程奖励模型 (PRM) 和 Pairwise Preference 机制整合到 Tree-of-Thought 框架中,用于运筹学数学建模问题的自动求解,在 StructuredOR 等数据集上以更少的推理步骤显著超越 CoT/SC/ToT 基线。

Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?

本文提出DeltaBench——首个系统评估o1类模型长CoT推理质量和现有LLM/PRM错误检测能力的基准数据集,通过对1,236个样本的精细人工标注,揭示了o1类模型约27%推理冗余、67.8%反思无效,以及最强critic模型GPT-4-turbo-128k也仅达F1=40.8%的令人警醒的现状。

Chain-of-Reasoning: Towards Unified Mathematical Reasoning in Large Language Models

提出Chain-of-Reasoning(CoR)统一框架,将自然语言推理(NLR)、算法推理(AR)和符号推理(SR)三种范式整合在同一推理链中协同工作,配合渐进式范式训练(PPT)策略,使7B模型在定理证明上零样本超越GPT-4o 41%,在MATH上超越RL方法15%。

Chain-of-Reasoning: Towards Unified Mathematical Reasoning in Large Language Models via a Multi-Paradigm Perspective

提出 Chain-of-Reasoning(CoR)框架,将自然语言推理(NLR)、算法推理(AR)和符号推理(SR)三种范式统一在一个推理链中,通过渐进范式训练(PPT)策略让 7B 模型(CoR-Math-7B)在零样本下超越 GPT-4o 41% 的定理证明准确率,在 MATH 基准上超过 RL 方法 15%。

ClozeMath: Improving Mathematical Reasoning in Language Models by Learning to Fill Equations

ClozeMath 提出了一种受人类完形填空学习启发的微调策略,通过掩码数学解答中的方程式并训练模型预测它们(text-infilling目标),与标准语言模型目标联合训练,在GSM8K和MATH上显著超越了强基线Masked Thought,并在推理时间扩展和鲁棒性测试中表现出更好的泛化能力。

Commonsense Abductive Reasoning using Knowledge from Multiple Sources

本文提出一种融合多源知识(知识图谱、预训练语言模型、规则库)的常识溯因推理方法,通过联合利用结构化和非结构化知识来生成更准确、更可解释的最佳解释,在溯因推理基准上取得了显著提升。

Complex Reasoning with Natural Language Contexts and Background Knowledge

本文提出一种将自然语言上下文与结构化背景知识相结合的复杂推理框架,通过知识图谱检索增强和上下文感知的推理链生成,显著提升LLM在需要外部知识支撑的多步推理任务上的表现。

Correcting Hallucinations in News Summaries: Exploration of Self-Correcting LLM Methods with External Knowledge

系统性地探究了两种自纠正方法(CoVE 和 RARR)在新闻摘要幻觉纠正中的表现,比较了三种搜索引擎、多种检索设置和提示策略,发现 Bing 搜索片段 + RARR(few-shot)组合效果最佳,且 G-Eval 与人类评估高度一致。

CoT-based Synthesizer: Enhancing LLM Performance through Answer Synthesis

提出 CoT-based Synthesizer——一种新的推理扩展策略,通过利用 CoT 推理分析多个候选回答的互补信息来合成更优的最终答案,即便所有候选回答都是错误的也能综合出正确答案,在 MATH500 上对 Llama3-8B 提升 11.8%、对 GPT-4o 提升 10.3%。

CoT-ICL Lab: A Synthetic Framework for Studying Chain-of-Thought Learning from In-Context Demonstrations

提出 CoT-ICL Lab 框架,通过解耦因果结构(DAG)和 token 处理函数(MLP)生成可控的合成 token 化数据集,系统研究了 CoT 对 ICL 的加速效应、模型深度的关键作用、以及 Transformer 嵌入与注意力图对底层推理结构的学习机制。

CoT-UQ: Improving Response-wise Uncertainty Quantification in LLMs with Chain-of-Thought

针对 LLM 在推理任务中过度自信的问题,提出 CoT-UQ 框架,将 CoT 推理步骤中的关键词提取和重要性评分整合到不确定性量化过程中,在逻辑和数学推理任务上 AUROC 平均提升 5.9%。

CoT-Valve: Length-Compressible Chain-of-Thought Tuning

本文提出CoT-Valve,一种通过在参数空间中识别"长度控制方向"(以LoRA实现)来弹性控制推理链长度的方法,仅训练一次即可生成从长到短不同长度的推理路径,在QwQ-32B-Preview上将GSM8K推理链从741压缩至225 tokens且准确率仅降0.15%(95.07%→94.92%)。

Critic-CoT: Boosting the Reasoning Abilities of Large Language Model via Chain-of-Thoughts Critic

提出 Critic-CoT 框架,通过逐步 Chain-of-Thought 批判范式和无需人工标注的弱监督数据自动构建,将 LLM 的自我批判从 System-1 式直觉判断推向 System-2 式慎重逐步分析;两阶段训练(GPT-4 蒸馏 + 自我批判)使 Llama-3-70B-Instruct 在 GSM8K 从 89.6% 提升至 95.4%,MATH500 从 50.4% 提升至 68.4%,并发现批判能力与任务求解能力可以相互增强。

Fine-Tuning on Diverse Reasoning Chains Drives Within-Inference CoT Refinement in LLMs

提出 Diverse Chain of Thought (DCoT) 训练方法,通过在单次推理中生成多条串行推理链实现"推理内自修正"(within-inference refinement),在 1.3B–70B 模型上均超越标准 CoT 基线,尤其在大输出空间任务(数值/抽取型)上提升显著。

DeFine: Decision-Making with Analogical Reasoning over Factor Profiles

提出 DeFine 框架,从财报电话会议等复杂场景的语音转录文本中构建概率因子画像(factor profile),结合 Bradley-Terry 模型识别关键因子并通过因子画像间的 KL 散度做类比推理,用于辅助 LLM 在不确定性下做投资决策,准确率和 F1 均超越基线。

Dynamic and Generalizable Process Reward Modeling (DG-PRM)

提出DG-PRM框架,通过构建层次化奖励树动态存储和选择多维评估标准,结合Pareto支配估计识别多目标下的正负样本对,实现动态、可泛化的过程奖励建模。

DRT: Deep Reasoning Translation via Long Chain-of-Thought

将长 CoT 推理引入机器翻译,构建多智能体框架(翻译器→顾问→评估器)迭代精炼含比喻/隐喻的文学翻译,合成 22K 长思维翻译训练样本,训练的 DRT-14B 在文学翻译上超越 QwQ-32B 和 DeepSeek-R1-Distill-32B 等大模型。

Enhancing Chain-of-Thought Reasoning with Critical Representation Fine-tuning

提出 CRFT 方法,通过信息流分析自动识别 Transformer 各层中对推理输出影响最大的"关键表征",并在低秩线性子空间中对这些表征进行有监督优化,在仅使用模型 0.016% 参数的情况下,将 LLaMA-2-7B 在 GSM8K 上的准确率提升了 18.2%。

Enhancing Mathematical Reasoning in LLMs by Stepwise Correction

本文提出StepCo(Stepwise Correction),一种迭代式"验证-修正"框架:利用过程监督验证器(PSV)逐步定位LLM推理路径中的首个错误步骤并触发LLM修正,在8个数学推理基准上以GPT-4o为后端取得94.1%平均准确率,超越Best-of-10方法+2.4个点,同时减少77.8%的token消耗。

Enhancing Retrieval Systems with Inference-Time Logical Reasoning

提出推理时逻辑推理框架(ITLR),利用 LLM 将自然语言查询转换为逻辑表达式(AND/OR/NOT),然后基于模糊逻辑对各子项的 cosine similarity 分数进行组合,在合成数据和 NFCorpus/SciFact/ArguAna 三个真实数据集上一致性超越传统 dense retrieval 和 BRIGHT baseline,尤其在含否定的复杂查询上提升显著。

Entropy-based Exploration Conduction for Multi-step Reasoning

提出 Entro-duction 方法,通过监控 LLM 推理过程中输出的熵和方差熵变化来动态调整探索深度,使用 \(\epsilon\)-greedy 策略选择加深、扩展或停止三种探索行为,在避免冗余推理的同时提升推理准确率。

EpicPRM: An Efficient and Precise Training Data Construction Framework for Process-supervised Reward Model in Mathematical Reasoning

本文提出 EpicPRM 框架,通过基于困惑度的贡献量化和自适应二分搜索算法,高效精确地构建高质量过程监督训练数据集 Epic50k,其训练的 PRM 以不到 PRM800k 10% 的数据量达到了相当甚至更好的监督性能。

FineReason: Evaluating and Improving LLMs' Deliberate Reasoning through Reflective Puzzle Solving

提出 FineReason——一个基于逻辑谜题的推理基准,通过"状态检查"(判断当前状态是否可解)和"状态转换"(决定下一步操作)两个任务,对LLM的审慎推理能力(反思、回溯、纠错)进行原子级粒度评估,并证明在谜题数据上的训练可迁移提升数学推理能力(GSM8K 提升 5.1%)。

Unlocking General Long Chain-of-Thought Reasoning Capabilities of Large Language Models via Representation Engineering

从表示空间角度发现 LLM 将长 CoT 推理编码为一种与普通 CoT 明确区分的通用能力,提出 GLoRE(General Long CoT Reasoning via Representation Engineering)——通过对比推理模式注入和领域特定表示调整来解锁长 CoT 能力,无需训练即可在域内和跨域场景下超越 SFT 方法。

Improve Vision Language Model Chain-of-thought Reasoning

通过(1)从GPT-4o蒸馏193K多任务CoT推理数据进行SFT,(2)利用模型自生成的推理链构建正负样本对进行DPO强化学习,显著提升VLM的链式推理能力,CoT预测平均+11.7%,同时直接回答也提升+7.3%。

Improving Chain-of-Thought Reasoning via Quasi-Symbolic Abstractions

本文提出QuaSAR(Quasi-Symbolic Abstract Reasoning),一种CoT变体方法,通过引导LLM先对问题进行符号化抽象(提取变量/谓词)、再用半形式化表示重构问题、最后基于准符号推理链求解,在GPT-4o上相比CoT提高最多8%准确率,并显著增强了对对抗性变体(选项打乱、数值替换)的鲁棒性。

Large Language and Reasoning Models are Shallow Disjunctive Reasoners

本文利用合成的空间与时间推理基准(STaR)评估LLM和LRM在需要组合多条推理路径的析取规则推理任务上的系统性泛化能力,发现即使是o3-mini等推理模型也只能处理单路径推理,在多路径析取推理场景中性能急剧下降。

Local Look-Ahead Guidance via Verifier-in-the-Loop for Automated Theorem Proving

提出 LeanListener,在自动定理证明(ATP)中引入 verifier-in-the-loop 设计,利用 Lean 验证器在每步提供中间反馈(子目标数变化)而非仅轨迹级奖励,通过在线 GRPO 训练使 ReProver 的 tactic 有效率和证明率均获提升,证明速度快 20%。

LogicPro: Improving Complex Logical Reasoning via Program-Guided Learning

提出 LogicPro 数据合成方法,利用 LeetCode 算法题和 Python 代码解作为逻辑源,通过"问题生成→代码中间变量提取→程序引导推理生成"三步流水线,从 2360 道算法题合成 540K 高质量文本推理数据,在 BBH27、LogicBench、DROP 等多个 OOD 基准上显著超越现有推理数据集。

Marco-o1 v2: Towards Widening The Distillation Bottleneck for Reasoning Models

揭示了直接蒸馏大推理模型(如 DeepSeek-R1)的长 CoT 数据到小模型时的「形式化长时间思考」瓶颈,提出基于 MCTS 从头构造树状 CoT 数据并结合思维长度平衡、细粒度 DPO 和联合训练目标来缓解该问题。

Linguistic Generalizability of Test-Time Scaling in Mathematical Reasoning

提出 MCLM(55 语言的竞赛级数学基准),发现三种 test-time scaling 方法(ORM/PRM/Budget Forcing)在英语上提升显著(如 AIME +20 分),但在其他语言上平均仅提升 1.94 分,表明 test-time scaling 的多语言泛化能力严重不足。

MM-Verify: Enhancing Multimodal Reasoning with Chain-of-Thought Verification

本文提出MM-Verifier和MM-Reasoner两个模型,通过模拟搜索+拒绝采样合成长链CoT验证数据、以及文本蒸馏合成多模态推理数据,仅7B参数即在MathVista上达到65.3%准确率超越GPT-4o(63.8%)和人类表现(60.3%)。

On Generalization across Measurement Systems: LLMs Entail More Test-Time Compute for Underrepresented Cultures

系统研究 LLM 跨度量系统(货币、长度、重量)的泛化能力,发现模型默认使用训练数据中的主导度量(如美元、公制),对非主导度量查询准确率显著下降;CoT 推理可弥补但推理成本增加高达 300%,对欠代表文化用户构成系统性不公平。

One Missing Piece for Open-Source Reasoning Models: A Dataset to Mitigate Cold-Starting Short CoT LLMs in RL

提出 Long CoT Collection——一个由短链式思维 LLM(如 GPT-4o)标注的 100K 长链式推理数据集,通过从 o1 提取推理流程作为引导,使短 CoT LLM 也能生成长 CoT 数据,从而解决强化学习中的冷启动问题,训练在该数据上初始化的模型在后续 RL 中获得 2-3 倍的性能提升。

PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation

将心理学中"学会识别说服技巧可提升真伪判断力"的发现迁移到 LLM,提出两阶段零样本 PCoT 方法:第一阶段识别并分析六类说服策略,第二阶段将分析上下文融入虚假信息检测,在 5 个 LLM × 5 数据集上 F1 平均提升 15%。

PCoT: Persuasion-Augmented Chain of Thought for Detecting Fake News and Social Media Disinformation

提出 PCoT(说服增强的思维链)方法,通过两阶段推理——先让 LLM 分析文本中的说服策略,再结合说服分析结果判断是否为虚假信息——在零样本设置下,5 个 LLM 和 5 个数据集上平均提升 15% 的检测 F1。

ProcessBench: Identifying Process Errors in Mathematical Reasoning

本文提出ProcessBench基准(3,400个测试用例,以竞赛/奥赛级数学题为主),评估PRM和critic模型定位数学推理中最早错误步骤的能力,发现现有PRM无法泛化到超出GSM8K/MATH的难题,而通用LLM(如QwQ-32B-Preview)作为critic的表现可与GPT-4o媲美。

ProgCo: Program Helps Self-Correction of Large Language Models

ProgCo 提出用 LLM 自动生成并执行验证伪程序(ProgVe)来检查自身回答的正确性,再通过对回答和验证程序的双重反思与修正(ProgRe)来实现可靠的自我纠正,在指令遵循和数学推理任务上显著提升了纠正成功率。

Ranked Voting based Self-Consistency of Large Language Models

将 Self-Consistency 的多数投票升级为排序投票,让 LLM 每次推理生成多个候选答案的偏好排序而非单一答案,用三种排序投票方法(IRV/BCV/MRRV)聚合多次推理的排序信息,在 6 个数据集上一致超越传统 SC,最高提升 12.46%。

Rethinking the Role of Prompting Strategies in LLM Test-Time Scaling: A Perspective of Probability Theory

本文在 6 个 LLM × 8 种 prompting 策略 × 6 个 benchmark 上系统实验发现,随着 majority voting 采样次数增加,简单的 CoT 始终超越复杂 prompting 策略;并从概率论角度给出理论证明,提出 \(O(1)\) 复杂度的 scaling 性能预测方法和两种改进策略。

Revisiting Self-Consistency from Dynamic Distributional Alignment Perspective on Answer Aggregation

将 Self-Consistency 重新理解为采样分布与真实答案分布的动态对齐问题,揭示温度不仅控制采样随机性还直接塑造真实答案分布,据此提出置信度驱动的三阶段动态温度调节机制(FSD 阈值理论推导),在 10 个模型 × GSM8K/MATH 上零训练开销同时提升平均和最佳性能。

Revisiting the Test-Time Scaling of o1-like Models: Do they Truly Possess Test-Time Scaling Capabilities?

系统性地揭示了 QwQ/DeepSeek-R1/LIMO 等 o1-like 模型在测试时并不具备真正的顺序扩展 (sequential scaling) 能力——更长的 CoT 并不带来更高准确率,根因是自我修正 (self-revision) 能力不足——并据此提出 Shortest Majority Vote 并行扩展方法显著超越传统多数投票。

RSVP: Reasoning Segmentation via Visual Prompting and Multi-modal Chain-of-Thought

本文提出 RSVP 框架,通过两阶段结构(推理驱动定位 + 分割精炼)将多模态大模型的推理能力与视觉分割相统一,利用多模态思维链视觉提示在 ReasonSeg 上超越 SOTA 达 +6.5 gIoU / +9.2 cIoU,零样本 SegInW 达到 49.7 mAP。

Safe: Enhancing Mathematical Reasoning in Large Language Models via Retrospective Step-aware Formal Verification

提出 Safe 框架,首次利用 Lean 4 形式化语言对 LLM 数学推理的每一步进行回顾性逐步验证,通过自动形式化+自动定理证明检测幻觉,并与前瞻性 PRM 分数融合,在多个数学数据集上取得 SOTA,同时发布包含 30,809 条形式化声明的 FormalStep 基准。

Self-Correction is More than Refinement: A Learning Framework for Visual and Language Reasoning Tasks

提出 Self-Correction Learning (SCL),通过将 VLM 自身产生的自纠正数据(成功和失败的纠正样本)分类为偏好/非偏好对,利用 DPO 进行偏好微调,从根本上提升模型直接生成正确答案的能力,而非仅仅依赖推理时的迭代修正。

Self-Error-Instruct: Generalizing from Errors for LLMs Mathematical Reasoning

提出 Self-Error-Instruct (SEI) 框架,通过分析目标模型在数学推理中的错误案例,使用 GPT-4o 提取错误关键词并聚类得到错误类型,然后针对每种错误类型采用 self-instruct 方式合成训练数据,迭代微调模型以系统性地补齐数学推理能力短板。

SoftCoT: Soft Chain-of-Thought for Efficient Reasoning with LLMs

提出 SoftCoT,用一个冻结的小型辅助模型(如 LLaMA-3.2-1B)生成实例特定的"软思维 token"(连续隐状态),通过可训练的投影模块映射到主 LLM 的表示空间作为推理前缀,实现参数高效的连续空间 CoT 推理,避免了全模型微调导致的灾难性遗忘问题。

STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond

提出 STRICTA 框架,将专家文本评估(如论文审稿)建模为基于结构因果模型(SCM)的逐步推理图,收集 40+ 生物医学专家对 22 篇论文的 4000+ 推理步骤数据,揭示先验知识差异是评审分歧的主因、写作风格对终审影响过大,并发现 LLM 在人工监督下可有效辅助结构化评估。

Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering

首次评估 test-time scaling 模型(DeepSeek R1、S1)在选择性问答(允许拒绝回答)场景下的表现,发现增加推理计算不仅提高正确率还提升对正确答案的置信度,提出基于置信度阈值的选择函数和 "Jeopardy Odds" 效用函数来评估非零错误惩罚下的 test-time scaling 性能。

ThinkGuard: Deliberative Slow Thinking Leads to Cautious Guardrails

通过从 GPT-4o/DeepSeek-R1 蒸馏结构化批判(安全标签+详细推理理由),微调护栏模型实现"慢思考"式安全判断,在 4 个安全 benchmark 上达到最高平均 F1(75.5%)和 AUPRC(79.5%),相比 LLaMA Guard 3 准确率提升 16.1%、宏 F1 提升 27.0%。

Towards Better Chain-of-Thought: A Reflection on Effectiveness and Faithfulness

从有效性和忠实性两个视角系统分析 CoT 的表现模式:发现问题难度、信息增益和信息流单调性决定 CoT 有效性,并揭示不忠实 CoT 的机制——模型在预测答案时从问题中召回了 CoT 遗漏的正确信息。在此基础上提出 QUIRE 算法,同时提升 CoT 的有效性(+2.4%)和忠实性(+5.6%)。

TRACT: Regression-Aware Fine-tuning Meets Chain-of-Thought Reasoning

提出 TRACT,一种两阶段回归感知微调方法,将 CoT 推理与回归损失(squared error)结合,用于提升 LLM-as-a-Judge 场景中的数值评分精度,显著优于仅用交叉熵训练或仅用回归损失的现有方案。

Understanding the Dark Side of LLMs' Intrinsic Self-Correction

本文系统研究了 LLM 内在自我纠错(intrinsic self-correction)的失败现象,提出三种可解释性方法揭示失败原因——简单任务中的答案动摇和提示偏差、复杂任务中的类人认知偏差,并提出问题重复和少样本 SFT 两种简单有效的缓解策略。

Unveiling the Key Factors for Distilling Chain-of-Thought Reasoning

系统研究影响 CoT 蒸馏的三大因素(粒度、格式、教师模型),发现 SLM 与粒度呈非单调关系、格式影响较小、强教师不总是更好。