跳转至

Breaking the Tuning Barrier: Zero-Hyperparameters Yield Multi-Corner Analysis Via Learned Priors

会议: CVPR 2026
arXiv: 2603.13092
代码: 无
领域: EDA / Circuit Yield Analysis
关键词: yield analysis, foundation model, in-context learning, TabPFN, SRAM, zero hyperparameter

一句话总结

提出用基础模型 TabPFN 的 learned prior 替代传统人工先验(GP 核、IS 高斯假设),实现零超参数调优的多 PVT Corner 良率分析,在工业级 SRAM 基准上达到 SOTA 精度(MRE 低至 0.11%)的同时提速超 10×。

研究背景与动机

领域现状:现代集成电路需在 25+ 个 Process-Voltage-Temperature(PVT)Corner 下验证良率,每个 Corner 需超过 \(10^4\) 次蒙特卡洛仿真,总成本 \(O(K \times N)\) 导致数周计算时间。

现有痛点:加速方法沿两条路径发展却都碰壁:(1) 重要性采样(IS)方法如 MNIS 实现了全自动化,但高斯假设构成"模型容量壁垒"——无法捕获非线性故障区域,精度有天花板;(2) 代理模型方法如 GP、深度核、normalizing flow 打破了容量限制,但引入了"调参壁垒"——每个电路需要数小时的超参数优化(核函数选择、网络架构搜索),且 ±20% 的超参扰动导致误差从 19% 变到 111%,工业界无法接受。

核心矛盾:表达力与自动化的根本矛盾——要么用简单模型实现自动化但精度受限,要么用复杂模型提高精度但需要大量调参。

本文目标:在保持高表达力(非线性故障边界建模)的同时,彻底消除逐电路的超参数调优。

切入角度:用 meta-learning 的 learned prior 替代 engineered prior。TabPFN 在数百万回归任务上预训练后,通过 in-context learning(单次前向传播)即可适应新电路——无需梯度下降、无需超参优化、无需重训练。

核心 idea:TabPFN 的 learned prior + 跨 Corner 联合建模 + 主动学习 = 零调参且高精度的多 Corner 良率分析。

方法详解

整体框架

Pipeline 分两步:(1) 稀疏特征选择——将高维电路参数(如 1152D 的 32×2 SRAM)压缩到约 48D;(2) 零超参推理循环——TabPFN 做 in-context learning 建全局代理模型,不确定性驱动的主动学习引导 SPICE 仿真,迭代直到良率估计收敛。

关键设计

  1. 从 Engineered Prior 到 Learned Prior(TabPFN):

    • 功能:在单次前向传播中完成贝叶斯后验预测,无需任何超参数优化
    • 核心思路:传统 GP 需逐电路优化核超参 \(\theta^* = \arg\max_\theta \log \mathcal{N}(\mathbf{y}|\mathbf{0}, K_\theta + \sigma^2 I)\)(O(D) 个参数的非凸优化)。TabPFN 通过 meta-learning 目标 \(\Theta^* = \arg\min_\Theta \mathbb{E}_{f \sim p_{\text{meta}}} [\mathbb{E}_{D_{\text{train}} \sim f} [\mathbb{E}_{(\mathbf{z}^*, y^*) \sim f} [-\log p_\Theta(y^*|\mathbf{z}^*, D_{\text{train}})]]]\) 预训练,等价于最小化 learned approximation 和 true PPD 之间的 KL 散度。推理时 \((\mu^*, (\sigma^*)^2) = \mathcal{G}_{\Theta^*}(\mathbf{z}^*, D_{\text{circuit}})\),自注意力机制充当 learned kernel \(k_{\text{learned}}(\mathbf{z}^*, \mathbf{z}_i; D) \propto \exp(\mathbf{Q}(\mathbf{z}^*)^T \mathbf{K}(\mathbf{z}_i) / \sqrt{d_k})\)
    • 设计动机:将每次电路的超参调优成本分摊到一次性的大规模预训练中,消除 Tuning Barrier
  2. 跨 Corner 知识迁移:

    • 功能:利用 PVT Corner 间的物理相关性提升稀疏采样 Corner 的预测精度
    • 核心思路:将稀疏工艺参数 \(\mathbf{x}_\mathcal{S}\) 与 Corner 编码 \(c\)(归一化电压和温度)拼接为联合输入 \(\mathbf{z} = [\mathbf{x}_\mathcal{S}; c] \in \mathbb{R}^{|\mathcal{S}|+p}\),构建全局代理 \(\hat{f}(\mathbf{x}_\mathcal{S}, c)\)。自注意力机制通过权重 \(\alpha_{ij} = \text{softmax}(\mathbf{Q}(\mathbf{z}^*)^T \mathbf{K}(\mathbf{z}_i) / \sqrt{d_k})\) 自动上调与查询 Corner 相关的样本权重,有效样本量 \(n_{\text{eff}}(\mathbf{x}^*, c_2) = \sum_i \alpha_i^2 \geq n_2\)
    • 设计动机:独立建模每个 Corner 需要 K 个模型且浪费共享物理信息;联合建模让充分采样的 Corner 为稀疏 Corner "借力",消融显示可降低 72% 误差
  3. 不确定性引导的主动学习:

    • 功能:将昂贵的 SPICE 仿真集中在对良率估计信息增益最大的区域
    • 核心思路:acquisition function 结合预测不确定性和规格边界接近度:\(\alpha_k(\mathbf{x}) = \sigma(\mathbf{x}, c_k) \cdot \phi((\hat{f}(\mathbf{x}, c_k) - \text{Spec}_k) / \sigma(\mathbf{x}, c_k))\)\(\sigma\) 捕获认知不确定性(更多数据可降低),\(\phi(\cdot)\) 将采样集中在 pass/fail 决策边界。多 Corner 联合优化 \(\alpha(\mathbf{x}) = \max_k \alpha_k(\mathbf{x})\),批量采样时加多样性惩罚
    • 设计动机:TabPFN 的贝叶斯性质"免费"提供校准的不确定性估计,直接用于主动学习无需额外成本

特征选择 / 维度压缩

TabPFN 当前限制在 500 维以内。对于 1152D 的 32×2 SRAM,用 GBDT(默认 LightGBM 配置,零调参)获取特征重要度排名,贪心搜索最优子集 \(\mathcal{S}^* = \arg\max_k R^2(\mathcal{S}_k)\),通常 1152D → 48D,子分钟完成。

实验关键数据

主实验

多 Corner 良率预测(5 PVT Corners,MRE %,OpenYield 工业级 SRAM):

电路 BI-BD BI-BC OPT 本文
4×2 (144D) 0.15 0.45 0.47 0.11
8×2 (288D) 0.29 2.46 20.4 0.22
16×2 (576D) 3.39 0.56 30.3 0.29
32×2 (1152D) 0.79 1.64 12.2 1.10

单 Corner 分析(8×2 SRAM,FF Corner):

方法 MRE (%) #Sim Speedup
MC (baseline) 4100
MNIS 12.63 3100 1.3×
ACS 28.47 2700 1.5×
HSCS 19.01 3360 1.2×
OPT 8.88 3000 1.4×
本文 8.88 170 24.1×

消融实验(跨 Corner 知识迁移,16×2 SRAM)

Corner Target Only +1 Corner +2 +3 +4 MRE 降幅
TT 21.79 13.85 10.86 9.05 6.04 -72%
SF 100.00 100.00 71.43 57.14 42.86 -57%
FS 2.21 2.00 0.88 0.87 0.71 -68%
SS 4.09 4.09 3.79 3.62 3.61 -12%

代理模型对比(8×2 SRAM,样本量 < 1000):

方法 ~100 样本 MAE 调参需求
GP (tuned) ~30% 需要
Deep-GP (tuned) ~35% 需要
MLP (tuned) ~45% 需要
SVM (tuned) ~40% 需要
TabPFN ~5% 零调参

关键发现

  • 在 100 样本量下 TabPFN 的 MAE 约 5%,所有经调参的基线都在 30-45%
  • 跨 Corner 知识迁移在困难 Corner(TT、SF、FS)上效果显著,最高降低 72% 误差
  • 单 Corner 分析中实现 24.1× 加速,同精度下比 OPT 少用 17× 仿真次数
  • 传统 IS 方法在有外围电路、寄生效应的工业级 SRAM 上仅有 1.2-1.5× 加速,learned prior 更鲁棒
  • 超参敏感性实验(Table 1)揭示 SOTA 方法在 ±20% 扰动下误差波动 6-10×,验证了 Tuning Barrier 的严重性

亮点与洞察

  • "Tuning Barrier"概念的提出和量化(Table 1)非常有说服力,直接击中工业界痛点
  • 自注意力作为 learned kernel 的理论联系建立得清晰——从 GP 核到 attention weight 有自然过渡
  • 跨 Corner 信息共享的消融实验(Table 6)直观展示了联合建模的价值
  • 整个 pipeline 端到端零调参,适合工业集成

局限与展望

  • TabPFN 当前限制 500 维,>500D 依赖特征选择作为 workaround
  • 仅在 SRAM 电路上验证,未测试模拟/数混电路
  • Corner 数仅 5 个(TT/FF/SS/FS/SF),工业界常需 25+ Corners
  • 特征选择虽零调参但引入了 GBDT 的隐含假设(树模型的特征重要度可能对某些电路不准确)

相关工作与启发

  • MNIS 是工业标准的 IS 方法,本文在保持其自动化优势的同时突破了容量限制
  • TabPFN 作为 tabular 数据的基础模型,在此被首次应用于 EDA 领域
  • learned prior 的思路可推广到其他需要反复调参的工程仿真场景(如电磁仿真、热分析)

评分

  • 新颖性: ⭐⭐⭐⭐ 将基础模型的 in-context learning 引入 EDA 良率分析是很新颖的跨界
  • 实验充分度: ⭐⭐⭐⭐ 多规模 SRAM、单/多 Corner、代理模型对比、消融实验完整
  • 写作质量: ⭐⭐⭐⭐ "双壁垒"的叙事线清晰,表格和图表说服力强
  • 价值: ⭐⭐⭐⭐ 解决了 EDA 工业界的核心痛点,零调参特性有直接部署价值

Breaking the Tuning Barrier: Zero-Hyperparameters Yield Multi-Corner Analysis Via Learned Priors

会议: CVPR 2026
arXiv: 2603.13092
代码: 无
领域: 人体理解 / 集成电路可靠性
关键词: yield analysis, foundation model, TabPFN, in-context learning, zero hyperparameter

一句话总结

用 TabPFN 基础模型的学习先验替代人工设计先验,实现零超参数调优的多角(PVT)良率分析,结合自动特征选择(1152D→48D)和不确定性引导主动学习,在工业级 SRAM 基准上达到 SOTA 精度(MRE 低至 0.11%)同时减少 10× 以上验证成本。

研究背景与动机

领域现状:集成电路良率多角分析 (YMCA) 要求在 25+ 个 PVT(工艺-电压-温度)角下验证电路,产生 \(O(K \times N)\) 的组合仿真成本,其中 \(K\) 为角数,\(N > 10^4\)。对 32 晶体管 SRAM 跨 25 角意味着超过 25,000 次 SPICE 仿真,需数周计算。

现有痛点:现有加速方法面临根本性权衡——简单模型(如重要性采样 MNIS)实现自动化但无法处理非线性电路(模型容量屏障);高级 AI 模型(GP、深度核、正则化流)能捕获复杂行为但需要数小时的超参数调优(调优屏障)。在 ±20% 超参数扰动下,SOTA 方法的误差从 19% 到 111% 剧烈波动。

核心矛盾:表达力 vs 自动化的不可能三角——方法要么实现自动化(IS),要么具有表达力(代理模型),但无法两者兼得。

本文目标:打破调优屏障——在不需要任何逐电路超参数调优的情况下,实现与调优后 SOTA 相当的良率分析精度。

切入角度:用元学习的学习先验替代人工设计先验。传统方法通过手工选择(GP 核、IS 高斯假设)编码先验,本文使用在数百万回归任务上预训练的 TabPFN 基础模型,通过单次前向传播实现上下文贝叶斯推断。

核心 idea:用 TabPFN 的注意力机制作为学习的非线性核,在零调优下自动适应每个电路并跨角传递知识,再结合自动特征选择和不确定性引导主动学习构成完整 YMCA pipeline。

方法详解

整体框架

完整 pipeline:(1) 初始 LHS 采样并仿真;(2) 若维度 >500 则自动特征选择压缩;(3) TabPFN 上下文学习建模→不确定性引导主动采样→SPICE 仿真→更新数据集;(4) 迭代直至良率估计收敛。

关键设计

  1. 学习先验取代人工先验 (Learned Priors via Meta-Learning):

    • 功能:实现零超参数的表达性建模
    • 核心思路:使用 TabPFN——在数百万回归任务上预训练的 Transformer 基础模型。训练目标为 \(\Theta^* = \arg\min_\Theta \mathbb{E}_{f \sim p_{\text{meta}}(f)}[\mathbb{E}_{D_{\text{train}} \sim f}[\mathbb{E}_{(\mathbf{z}^*, y^*) \sim f}[-\log p_\Theta(y^*|\mathbf{z}^*, D_{\text{train}})]]]\)。推理时直接接受电路数据 \((\mu^*, (\sigma^*)^2) = \mathcal{G}_{\Theta^*}(\mathbf{z}^*, D_{\text{circuit}})\),无需梯度下降、无需超参数优化
    • 设计动机:GP 需要优化 \(O(D)\) 个核长度参数(对 100 维电路需优化 100+ 参数),点估计 \(\boldsymbol{\theta}^*\) 还忽略了超参数不确定性。TabPFN 的注意力机制 \(k_{\text{learned}}(\mathbf{z}^*, \mathbf{z}_i; D_{\text{circuit}}) \propto \exp(\frac{\mathbf{Q}(\mathbf{z}^*)^T \mathbf{K}(\mathbf{z}_i)}{\sqrt{d_k}})\) 是数据自适应的学习核
  2. 跨角知识传递 (Cross-Corner Knowledge Transfer):

    • 功能:在稀疏采样的角利用密集采样角的信息
    • 核心思路:构建联合输入 \(\mathbf{z} = [\mathbf{x}_\mathcal{S}; c]\)(拼接稀疏过程参数和角编码),建立全局代理 \(\hat{f}(\mathbf{x}_\mathcal{S}, c)\)。注意力权重自动上权来自相关角 \(c_k \approx c_j\) 的训练样本。有效样本量 \(n_{\text{eff}}(\mathbf{x}^*, c_2) = \sum_{i} \alpha_i^2 \geq n_2\),当角相关时 \(n_{\text{eff}}\) 远大于该角自身样本数 \(n_2\)
    • 设计动机:同一电路在不同 PVT 条件下共享底层物理机制,独立建模每个角浪费信息且需要 \(K\) 个模型
  3. 自动特征选择 (Automated Feature Selection):

    • 功能:将高维参数空间(如 1152D)压缩到 TabPFN 可处理的范围(~48D)
    • 核心思路:使用默认配置 LightGBM 训练 GBDT 获取特征重要性排名,贪心前向搜索最优子集 \(\mathcal{S}^* = \arg\max_k R^2(\mathcal{S}_k)\),整个过程零调优——GBDT 使用固定默认配置,batch size \(B=10\) 为非敏感粒度参数
    • 设计动机:电路物理具有固有稀疏性——性能通常依赖少数关键晶体管而非全部 1152 个参数

损失函数 / 训练策略

  • 主动学习获取函数:\(\alpha_k(\mathbf{x}) = \sigma(\mathbf{x}, c_k) \cdot \phi(\frac{\hat{f}(\mathbf{x}, c_k) - \text{Spec}_k}{\sigma(\mathbf{x}, c_k)})\)——不确定性加权边界采样
  • 多角联合优化:\(\alpha(\mathbf{x}) = \max_k \alpha_k(\mathbf{x})\)
  • 收敛判据:\(\max_k |\hat{Y}_k^{(t)} - \hat{Y}_k^{(t-1)}| < \epsilon\)

实验关键数据

主实验

8×2 SRAM 各方法跨 PVT 角的良率预测 (MRE %):

方法 TT FF SF FS SS 平均 MRE
BI-BD 0.34 0.20 0.89 0 0
BI-BC 1.95 0.61 9.73 0 0
OPT 1.61 0.40 100+ 0 0 极高
Proposed 0.23 0.01 0.88 0 0 0.22

消融实验

配置 关键指标 说明
TabPFN vs GP (100样本) ~5% vs ~30% MAE 小样本下学习先验远优于 GP
TabPFN vs MLP (100样本) ~5% vs ~45% MAE MLP 在小数据下表现最差
有跨角传递 vs 无 >70% 误差降低 跨角知识传递是关键
超参数扰动 ±20% 本文稳定 vs 基线波动 零调优带来鲁棒性

关键发现

  • OPT 在 SF 角出现 100% 以上的误差,而本文方法仅 0.88%
  • 在小样本区间(<1000 样本),TabPFN 的数据效率显著优于所有调优后的传统代理模型
  • 特征选择将 1152D 压缩为约 48D,单次运行耗时不到一分钟
  • 计算成本以 SPICE 仿真为主(分钟到小时),TabPFN 推理仅需秒级

亮点与洞察

  • "调优屏障"的形式化定义精准——通过表 1 的超参数扰动实验量化了现有方法的脆弱性
  • 将 Transformer 注意力理解为"learnable nonlinear kernel"很有洞察力
  • 零调优承诺不是空谈——整个 pipeline 从特征选择到推理确实没有需要手动调的超参数
  • 跨角知识传递的有效样本量分析优雅地解释了为什么全局建模优于独立建模

局限与展望

  • TabPFN 当前限制 500 维特征,需要特征选择作为预处理——未来更大的 TabPFN 可直接处理
  • 评估仅在 SRAM 基准上,未扩展到其他电路类型(如模拟电路、混合信号)
  • 主动学习的批量大小和多样性参数仍是固定设置
  • TabPFN 的预训练数据分布是否覆盖电路仿真的特定模式需要进一步验证

相关工作与启发

  • MNIS:工业标准重要性采样,自动化但模型容量受限
  • TabPFN (Hollmann et al.):在表格回归任务上的基础模型,本文将其引入电路分析
  • OPT (Liu et al.):复杂模型驱动的良率分析,能力强但需大量调优
  • 启发:TabPFN 作为通用的"零调优回归引擎"可推广到任何需要快速代理建模的工程优化场景

评分

  • 新颖性: ⭐⭐⭐⭐ 将基础模型引入电路良率分析打破调优屏障,视角新颖
  • 实验充分度: ⭐⭐⭐⭐ 工业级 SRAM 基准,多角多电路规模评估,调优敏感性分析有力
  • 写作质量: ⭐⭐⭐⭐⭐ "调优屏障"概念立论清晰,从理论到实验逻辑严密
  • 价值: ⭐⭐⭐⭐ 零调优特性对工业部署有实际价值,有望推动 AI 在 EDA 中的真正落地