LogicReward: Incentivizing LLM Reasoning via Step-Wise Logical Supervision¶
会议: ICLR2026
arXiv: 2512.18196
代码: 项目主页
领域: 音频语音
关键词: 逻辑推理, 定理证明器, 步骤级奖励, 自动形式化, 软统一
一句话总结¶
提出LogicReward奖励函数,用Isabelle定理证明器做步骤级逻辑正确性验证,结合Autoformalization with Soft Unification减少自然语言歧义,训练出的8B模型在NLI和逻辑推理任务上超越GPT-4o 11.6%和o4-mini 2%。
背景与动机¶
- 现有训练方法主要依赖结果反馈(outcome-based),可能产生推理错误但答案正确的情况
- 过程级监督(PRM等)仍缺乏逻辑正确性的形式化保证
- 概率性反馈(token概率/学习的奖励模型)本质上非确定性,无法可靠检测逻辑错误
- 符号验证方法目前主要限于结构化领域(数学/编程),NLI领域缺失
- 自然语言歧义性和隐含假设使形式化验证困难(如Dad≠Father但语义等同)
- 高风险场景(医疗/法律)需要严格的逻辑一致性保证
方法详解¶
整体框架¶
LogicReward = Rollout生成 → Autoformalization with Soft Unification → 步骤级奖励计算 → Refinement迭代 → 训练数据构建
数据收集与Rollout¶
从8个NLI/逻辑推理数据集采样约6000实例,用Qwen3-8B和GPT-4o各生成4个响应(共8/题),格式化为"Step 1: s1; Step 2: s2; ...; Answer: A"。
LogicReward奖励函数(三维度验证)¶
每个推理步骤\(s_i\)被分解为\((P_r, I)\),其中\(P_r\)=使用的前提,\(I\)=做出的推断。
Premise Validity(前提有效性):检查引用前提\(P_r\)是否在给定前提\(P\)中有Grounding。将\(P_r\)拆分为句子\(\{q_1,...,q_m\}\),对每个\(q_j\)计算与给定前提的最大余弦相似度,取平均作为步骤级分数。
Logic Validity(逻辑有效性):用Isabelle定理证明器验证推断\(I\)的逻辑正确性。分三种情况:语法正确+逻辑正确→1;语法正确+逻辑错误→0;语法错误→退回token概率置信度\(\text{Conf}(I) = \frac{1}{|I|}\sum_{t \in I}\text{token\_prob}(t)\)。
Outcome Validity(结果有效性):最终答案是否匹配 ground truth,二值(0/1)。
Autoformalization with Soft Unification¶
自然语言存在大量歧义和隐含假设(Dad≠Father但语义等同),直接形式化会导致Isabelle验证失败。Soft Unification提示LLM在每个推理步骤中补充有效但未明确陈述的假设(如同义词映射、常识补充),提高形式化成功率。然后用neo-davidsonian事件语义形式解析,转换为Isabelle/HOL理论进行验证。
Refinement迭代¶
对Isabelle判定无效的推理步骤,用Isabelle的错误信息提示LLM迭代refine Soft Unification,直到逻辑正确或达到最大迭代次数。每个问题随机选择两个响应进行refine,形成\(D_{\text{refined}}\)。
训练策略¶
最终奖励: \(\text{LogicScore}(r,A) = \text{avg}(w_1 \cdot \text{ReasoningValidity}(r), w_2 \cdot \text{OutcomeValidity}(A))\),\(w_1=w_2=0.5\)。 训练数据\(D_{\text{final}} = D_r \cup D_{\text{refined}}\)。SFT——取最高LogicScore响应作目标;DPO——最高/最低LogicScore响应配对。基座模型为Llama3.1-8B和Qwen3-8B,两阶段训练(SFT→DPO),LoRA微调。
实验关键数据¶
| 模型 | M-LogiEval | FOLIO | ProverQA | LogiQA | 8任务平均 |
|---|---|---|---|---|---|
| GPT-4o | 68.0 | 63.5 | 78.4 | 69.3 | 73.9 |
| o4-mini | 82.0 | 80.8 | 78.8 | 65.7 | 83.5 |
| DeepSeek-R1-8B | 64.8 | 57.3 | 59.2 | 53.2 | 68.6 |
| LogicReward-Qwen3-8B | 82.0 | 79.5 | 81.2 | 72.3 | 85.5 |
奖励系统对比¶
| 奖励函数 | M-LogiEval | ProntoQA | ProverQA | QASC | 8任务平均 |
|---|---|---|---|---|---|
| Confidence(平均token概率) | 76.9 | 81.0 | 52.3 | 89.8 | 64.3 |
| LLM-as-Judge(GPT-4o) | 65.8 | 84.6 | 47.5 | 95.3 | 60.2 |
| PRM(Nemotron-70B) | 66.7 | 90.6 | 62.1 | 97.0 | 66.0 |
| LogicReward | 79.0 | 90.3 | 60.1 | 97.8 | 71.4 |
泛化能力:在未见过的任务上测试——CommonsenseQA和GSM8K分别提升8.2%和4.5%,证明逻辑正确性奖励提升的理性能力可迁移。
无标签场景:仅用ReasoningValidity(不依ground truth)作奖励仍有效,平均提升+5.8%,说明推理過程的逻辑质量本身就是有价值的监督信号。
亮点与洞察¶
- 首次将定理证明器引入NLI领域的步骤级奖励——跨越了符号验证从结构化→非结构化的鸿沟
- Soft Unification巧妙处理自然语言歧义,是让定理证明器在NL推理中可用的关键
- 8B模型超越o4-mini——证明逻辑正确的训练数据比模型规模更重要
- 无标签场景下仍有效——ReasoningValidity本身就是有价值的信号
- Refinement机制利用Isabelle错误信息迭代改进,闭环设计
局限与展望¶
- Isabelle形式化失败时退回token概率,失去了形式化保证
- 仅在NLI/逻辑推理任务上训练和主评估,数学/常识仅作泛化验证
- Soft Unification依赖LLM的能力,可能引入新的错误
- 训练数据仅~6000实例,扩展性待验证
- 形式化流水线成本高(需要Isabelle运行环境+多次LLM调用)
- \(w_1=w_2=0.5\)为简单等权,未探索最优权重
与相关工作的对比¶
- vs PRM(Lightman等): LogicReward提供确定性逻辑保证而非概率评估
- vs LINC/Logic-LM: 这些方法在推理时用prover,LogicReward在训练时用prover构建奖励
- vs DeepSeek-R1: 仅用outcome reward激励长推理,LogicReward额外监督推理过程的逻辑有效性
- vs SymbCoT/Aristotle: 让LLM扮演symbolic prover,LogicReward使用实际定理证明器
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ (定理证明器+NLI训练奖励的首次结合)
- 实验充分度: ⭐⭐⭐⭐ (8 benchmark+多基线+泛化+无标签实验)
- 写作质量: ⭐⭐⭐⭐ (方法描述清晰,公式完整)
- 价值: ⭐⭐⭐⭐⭐ (8B超o4-mini,实用性和理论意义兼具)