跳转至

Deceptron: Learned Local Inverses for Fast and Stable Physics Inversion

会议: NEURIPS2025
arXiv: 2511.21076
代码: aadityakachhadiya/deceptron-ml4ps2025
领域: AI安全
关键词: inverse problems, physics inversion, learned preconditioning, Jacobian composition, Gauss-Newton

一句话总结

提出 Deceptron 双向模块,通过学习可微分前向代理的局部逆映射并引入 Jacobian Composition Penalty (JCP),在求解物理逆问题时将输出空间的残差拉回输入空间,实现类 Gauss-Newton 的预条件梯度更新,迭代次数大幅减少(Heat-1D 约 20 倍加速)。

背景与动机

物理科学中的逆问题(如 PDE 反演、系统辨识、成像)通常需要在输入空间最小化数据失配,同时用投影约束满足物理条件。然而这些优化目标往往严重病态(ill-conditioned),梯度缩放不良,导致需要极多迭代才能收敛。经典的 Gauss-Newton/LM 方法虽然提供二阶曲率信息,但每步需要求解线性系统,计算代价高。因此需要一种既能获得类似二阶方向又计算轻量的方法。

核心问题

如何在不显式求解 Hessian 或 Jacobian 线性系统的条件下,为物理逆问题提供有效的预条件(preconditioning),使优化迭代方向接近 Gauss-Newton 方向,从而大幅减少收敛所需的迭代次数?

方法详解

Deceptron 双向模块

定义前向映射 \(f_W(x) = \sigma(Wx + b)\) 和逆向映射 \(g_V(y) = \tilde{\sigma}(Vy + c)\),其中 \(V\)\(W^\top\) 不绑定,使 \(g\) 可以在 \(W\) 非正交时充当局部逆。

训练损失

联合损失包含七个部分:

  1. 任务损失\(\lambda_{\text{task}}\|f_W(x) - y^*\|^2\)——前向拟合
  2. 重建损失\(\lambda_{\text{rec}}\|g_V(f_W(x)) - x\|^2\)——逆向重建一致性
  3. 循环损失\(\lambda_{\text{cyc}}\|f_W(g_V(\tilde{y})) - \tilde{y}\|^2\)——前向-逆向循环一致性
  4. 谱正则\(\beta_{\text{spec}}\|W^\top W - I\|_F^2\)——鼓励 \(W\) 接近正交
  5. 偏置绑定\(\lambda_{\text{tie}}\|b + c\|_2^2\)——软约束偏置对称
  6. 组合正则\(\lambda_{\text{comp}}\|VW - I\|_F^2\)——线性层面逆约束
  7. JCP(核心)\(\lambda_{\text{JCP}}\mathbb{E}_\xi\|J_g(f_W(x))J_f(x)\xi - \xi\|^2\)——Jacobian 组合惩罚

其中 JCP 通过 Hutchinson 恒等式,仅需 1-4 个 JVP/VJP 探针即可无偏估计 \(\|J_g(f(x))J_f(x) - I\|_F^2\),确保 \(g\) 在训练域内为 \(f\) 的局部左逆。

D-IPG 推理算法

在求解 \(\Phi(x) = \frac{1}{2}\|f_W(x) - y^*\|^2\) 时,每步迭代:

  1. 计算输出残差 \(r_t = f_W(x_t) - y^*\)
  2. 在输出空间做梯度步:\(y_{t+1}^{\text{prop}} = y_t - \alpha r_t\)
  3. 通过逆映射拉回:\(x_{t+1}^{\text{prop}} = g_V(y_{t+1}^{\text{prop}})\)
  4. 松弛投影:\(x_{t+1} = \Pi_{\mathcal{C}}((1-\rho)x_t + \rho x_{t+1}^{\text{prop}})\)
  5. Armijo backtracking 验证接受条件

关键理论联系:一阶近似下 \(g(y_t - \alpha r_t) \approx x_t - \alpha J_g(f(x_t)) r_t\)。当 \(J_g(f(x)) \approx J_f(x)^+ = (J^\top J)^{-1}J^\top\) 时,D-IPG 的更新方向与 Gauss-Newton 一致。JCP 惩罚越低,越接近这一理想行为。

DeceptronNet v0(二维扩展)

针对图像逆问题的轻量 unrolled corrector:输入三通道特征 \(F_t = [\uparrow y, \uparrow r_t, x_t]\),通过小型 U-Net 预测校正 \(\Delta x_t\),可学习增益 \(\alpha_t = \sigma(\gamma_t) \in (0,1)\) 控制步长,固定展开 \(N=6\) 步。

实验关键数据

Heat-1D 初始条件恢复

方法 迭代中位数 [IQR] 每步耗时 总时间
x-GD 49.0 [38.2, 80.0] 0.43 ms 0.026 s
D-IPG 3.0 [2.0, 3.0] 0.51 ms 0.001 s
GN/LM 3.0 [2.0, 3.0] 3.82 ms 0.011 s

D-IPG 与 GN/LM 迭代次数相同,但每步代价仅为 GN/LM 的 1/7,总时间快 11 倍。

Damped Oscillator 逆问题

方法 迭代中位数 [IQR] 每步耗时 总时间
x-GD 65.0 [1.0, 104.5] 0.45 ms 0.004 s
D-IPG 28.0 [1.0, 34.0] 1.28 ms 0.001 s
GN/LM 16.5 [1.0, 33.2] 4.22 ms 0.007 s

DeceptronNet v0 二维 PSF 恢复

方法 RMSE 迭代次数 时间
LM 0.0883 69.25 -
x-GD 0.1271 80.00 -
DNet v0 0.0640 6.00 -

DNet v0 在相同公平协议下仅用固定 6 步即达到最低误差。

消融实验

  • 移除 JCP:组合残差从接近零升至 457.7,迭代从 2.6 增至 3.8
  • 绑定 \(V = W^\top\):迭代从 2.8 暴增至 16.2,接受率从 0.58 降至 0.061
  • 移除重建/循环损失:性能基本不变,说明预条件效果主要由 JCP 驱动

亮点

  • 理论优雅:通过 JCP 将 Hutchinson 方法与局部逆学习结合,建立 D-IPG 与 Gauss-Newton 的理论等价关系
  • 公平对比协议:所有方法共享投影器、Armijo 回溯、松弛参数、初始化和停止准则,消除实验偏差
  • RJCP 运行时诊断:提供推理时可监控的指标,可检测代理模型何时超出有效区域
  • 成本效率:JCP 仅在训练时增加开销,推理时 D-IPG 只需一次前向 + 一次逆向 + 一次梯度,无需线性求解

局限与展望

  • 局部性:逆映射 \(g\) 仅在训练分布附近有效,超出范围可能产生过度自信的重建
  • 代理保真度:当前假设可微分前向代理足够精确,真实物理模型偏差未充分研究
  • 规模有限:核心实验限于 1D Heat 和低维振荡器,DeceptronNet v0 仅为单尺度原型
  • 非线性不足:Deceptron 本身为浅层线性+激活结构,对高度非线性逆问题的表达力可能不够
  • 未来方向:多尺度 DeceptronNet、真实数据验证、与深度展开网络(如 LISTA、PnP)的融合

与相关工作的对比

  • vs. Gauss-Newton/LM:迭代次数持平但每步轻量得多(无需 CG 求解线性系统)
  • vs. PINN:不直接在物理方程上训练,而是学习已有代理的局部逆
  • vs. 学习展开(LISTA, PnP, RED):D-IPG 保留标准投影循环结构,仅替换更新方向;DNet v0 则走展开路线但强调公平对比
  • vs. L-BFGS:在 Kodak24 实验中,L-BFGS 需 80-100 步,DNet 仅需 6 步

启发与关联

  • JCP 的 Hutchinson 探针思路可泛化到其他需要 Jacobian 近似正则化的场景(如生成模型的可逆性约束)
  • RJCP 作为运行时诊断指标的做法值得借鉴——在任何涉及学习逆映射的系统中都可用于检测退化
  • 将优化预条件器「学出来」而非手工设计的思路,可能对大规模科学计算(如气候模型反演、医学成像重建)有启发

评分

  • 新颖性: ⭐⭐⭐⭐ — JCP 局部逆学习 + 预条件梯度的组合具有原创性
  • 实验充分度: ⭐⭐⭐ — 公平协议严谨,但问题规模偏小,缺乏大规模验证
  • 写作质量: ⭐⭐⭐⭐ — 理论推导清晰,公平对比协议描述详尽
  • 价值: ⭐⭐⭐ — 方向有潜力但当前验证的实际场景有限