跳转至

LogicReward: Incentivizing LLM Reasoning via Step-Wise Logical Supervision

会议: ICLR2026
arXiv: 2512.18196
代码: 项目主页
领域: 音频语音
关键词: 逻辑推理, 定理证明器, 步骤级奖励, 自动形式化, 软统一

一句话总结

提出LogicReward奖励函数,用Isabelle定理证明器做步骤级逻辑正确性验证,结合Autoformalization with Soft Unification减少自然语言歧义,训练出的8B模型在NLI和逻辑推理任务上超越GPT-4o 11.6%和o4-mini 2%。

背景与动机

  1. 现有训练方法主要依赖结果反馈(outcome-based),可能产生推理错误但答案正确的情况
  2. 过程级监督(PRM等)仍缺乏逻辑正确性的形式化保证
  3. 概率性反馈(token概率/学习的奖励模型)本质上非确定性,无法可靠检测逻辑错误
  4. 符号验证方法目前主要限于结构化领域(数学/编程),NLI领域缺失
  5. 自然语言歧义性和隐含假设使形式化验证困难(如Dad≠Father但语义等同)
  6. 高风险场景(医疗/法律)需要严格的逻辑一致性保证

方法详解

整体框架

LogicReward = Rollout生成 → Autoformalization with Soft Unification → 步骤级奖励计算 → Refinement迭代 → 训练数据构建

数据收集与Rollout

从8个NLI/逻辑推理数据集采样约6000实例,用Qwen3-8B和GPT-4o各生成4个响应(共8/题),格式化为"Step 1: s1; Step 2: s2; ...; Answer: A"。

LogicReward奖励函数(三维度验证)

每个推理步骤\(s_i\)被分解为\((P_r, I)\),其中\(P_r\)=使用的前提,\(I\)=做出的推断。

Premise Validity(前提有效性):检查引用前提\(P_r\)是否在给定前提\(P\)中有Grounding。将\(P_r\)拆分为句子\(\{q_1,...,q_m\}\),对每个\(q_j\)计算与给定前提的最大余弦相似度,取平均作为步骤级分数。

Logic Validity(逻辑有效性):用Isabelle定理证明器验证推断\(I\)的逻辑正确性。分三种情况:语法正确+逻辑正确→1;语法正确+逻辑错误→0;语法错误→退回token概率置信度\(\text{Conf}(I) = \frac{1}{|I|}\sum_{t \in I}\text{token\_prob}(t)\)

Outcome Validity(结果有效性):最终答案是否匹配 ground truth,二值(0/1)。

Autoformalization with Soft Unification

自然语言存在大量歧义和隐含假设(Dad≠Father但语义等同),直接形式化会导致Isabelle验证失败。Soft Unification提示LLM在每个推理步骤中补充有效但未明确陈述的假设(如同义词映射、常识补充),提高形式化成功率。然后用neo-davidsonian事件语义形式解析,转换为Isabelle/HOL理论进行验证。

Refinement迭代

对Isabelle判定无效的推理步骤,用Isabelle的错误信息提示LLM迭代refine Soft Unification,直到逻辑正确或达到最大迭代次数。每个问题随机选择两个响应进行refine,形成\(D_{\text{refined}}\)

训练策略

最终奖励: \(\text{LogicScore}(r,A) = \text{avg}(w_1 \cdot \text{ReasoningValidity}(r), w_2 \cdot \text{OutcomeValidity}(A))\)\(w_1=w_2=0.5\)。 训练数据\(D_{\text{final}} = D_r \cup D_{\text{refined}}\)。SFT——取最高LogicScore响应作目标;DPO——最高/最低LogicScore响应配对。基座模型为Llama3.1-8B和Qwen3-8B,两阶段训练(SFT→DPO),LoRA微调。

实验关键数据

模型 M-LogiEval FOLIO ProverQA LogiQA 8任务平均
GPT-4o 68.0 63.5 78.4 69.3 73.9
o4-mini 82.0 80.8 78.8 65.7 83.5
DeepSeek-R1-8B 64.8 57.3 59.2 53.2 68.6
LogicReward-Qwen3-8B 82.0 79.5 81.2 72.3 85.5

奖励系统对比

奖励函数 M-LogiEval ProntoQA ProverQA QASC 8任务平均
Confidence(平均token概率) 76.9 81.0 52.3 89.8 64.3
LLM-as-Judge(GPT-4o) 65.8 84.6 47.5 95.3 60.2
PRM(Nemotron-70B) 66.7 90.6 62.1 97.0 66.0
LogicReward 79.0 90.3 60.1 97.8 71.4

泛化能力:在未见过的任务上测试——CommonsenseQA和GSM8K分别提升8.2%和4.5%,证明逻辑正确性奖励提升的理性能力可迁移。

无标签场景:仅用ReasoningValidity(不依ground truth)作奖励仍有效,平均提升+5.8%,说明推理過程的逻辑质量本身就是有价值的监督信号。

亮点与洞察

  • 首次将定理证明器引入NLI领域的步骤级奖励——跨越了符号验证从结构化→非结构化的鸿沟
  • Soft Unification巧妙处理自然语言歧义,是让定理证明器在NL推理中可用的关键
  • 8B模型超越o4-mini——证明逻辑正确的训练数据比模型规模更重要
  • 无标签场景下仍有效——ReasoningValidity本身就是有价值的信号
  • Refinement机制利用Isabelle错误信息迭代改进,闭环设计

局限与展望

  • Isabelle形式化失败时退回token概率,失去了形式化保证
  • 仅在NLI/逻辑推理任务上训练和主评估,数学/常识仅作泛化验证
  • Soft Unification依赖LLM的能力,可能引入新的错误
  • 训练数据仅~6000实例,扩展性待验证
  • 形式化流水线成本高(需要Isabelle运行环境+多次LLM调用)
  • \(w_1=w_2=0.5\)为简单等权,未探索最优权重

与相关工作的对比

  • vs PRM(Lightman等): LogicReward提供确定性逻辑保证而非概率评估
  • vs LINC/Logic-LM: 这些方法在推理时用prover,LogicReward在训练时用prover构建奖励
  • vs DeepSeek-R1: 仅用outcome reward激励长推理,LogicReward额外监督推理过程的逻辑有效性
  • vs SymbCoT/Aristotle: 让LLM扮演symbolic prover,LogicReward使用实际定理证明器

评分

  • 新颖性: ⭐⭐⭐⭐⭐ (定理证明器+NLI训练奖励的首次结合)
  • 实验充分度: ⭐⭐⭐⭐ (8 benchmark+多基线+泛化+无标签实验)
  • 写作质量: ⭐⭐⭐⭐ (方法描述清晰,公式完整)
  • 价值: ⭐⭐⭐⭐⭐ (8B超o4-mini,实用性和理论意义兼具)