Capability-Based Scaling Trends for LLM-Based Red-Teaming¶
会议: ICLR 2026
arXiv: 2505.20162
代码: https://github.com/kotekjedi/capability-based-scaling
领域: 人类理解 / AI安全 / LLM对齐
关键词: 红队测试, 越狱攻击, 能力缩放, 安全评估, 攻击成功率
一句话总结¶
在 600+ 对攻击者-目标 LLM 组合上系统评估了 4 种越狱方法,发现攻击成功率(ASR)与攻击者-目标的能力差距遵循 sigmoid 缩放定律(R^2=0.83),能力差距可用 MMLU-Pro 的 logit 变换量化。
研究背景与动机¶
领域现状:LLM 红队测试(red-teaming)通过模拟攻击来评估模型安全性。现有研究通常只在少量模型对上评估,缺乏对攻击成功率如何随模型能力变化的系统性理解。
现有痛点:不同攻击方法的 ASR 差异巨大,且在不同模型对上表现不一致。缺乏统一的框架来预测新模型组合的攻击脆弱性。每次新模型发布都需要重新全量评估。
核心矛盾:安全评估是资源密集型的(每对模型都要测试),能否用缩放律来预测而非全量测试?同时,随着模型能力提升,人类红队测试是否终将失效?
本文目标 发现并量化 ASR 与模型能力差距之间的缩放关系,为安全评估提供预测性框架。
切入角度:将 MMLU-Pro 分数做 logit 变换作为"能力"的统一代理指标,计算攻击者与目标的能力差。
核心 idea:越狱成功率是攻击者-目标能力差距的 sigmoid 函数——攻击者越强且目标越弱,成功率越高;当目标超越攻击者时 ASR 急剧下降。
方法详解¶
整体框架¶
在 4 种攻击方法(PAIR, TAP, PAP, Crescendo)× 25+ 个攻击者模型 × 25+ 个目标模型的组合上评估 ASR,然后分析 ASR 与能力差 \(\delta = \text{logit}(a_{\text{MMLU}}) - \text{logit}(t_{\text{MMLU}})\) 的关系。所有攻击者模型先通过 LoRA 微调解锁(去除安全对齐),使用 HarmBench 基准的前 50 条有害行为进行评估。ASR 采用 best-of-25 报告(取 25 步中最高成功率),事后用中立 HarmBench 判官评估。
关键设计¶
-
能力差度量:
- 将 MMLU-Pro 分数做 logit 变换到实数轴:\(\text{logit}(p) = \log(p/(1-p))\)
- 能力差 \(\delta = \text{logit}(\text{攻击者 MMLU-Pro}) - \text{logit}(\text{目标 MMLU-Pro})\)
- 正值表示攻击者更强(strong-to-weak),负值表示目标更强(weak-to-strong)
-
Sigmoid 缩放律:
- 对每个目标模型,在 logit 空间拟合 ASR 关于能力差的线性回归,映射回概率空间得到 sigmoid 曲线
- 不同目标的 sigmoid 参数不同(斜率、偏移),但形状一致
- 中位线参数 \(k=1.73, b=-0.79\)
-
模型解锁:
- 对所有攻击者模型做 LoRA 微调去除安全对齐(~1500 条有害样本)
- 保留通用能力但移除拒绝行为——确保测试的是"攻击能力"而非"是否会拒绝攻击"
- 解锁质量通过直接 HarmBench 查询的 ASR 验证
实验关键数据¶
主实验(600+ 攻击者-目标对)¶
| 攻击方法 | 模型对数 | avg ASR vs MMLU-Pro \(\rho\) | R² (sigmoid 拟合) | 关键发现 |
|---|---|---|---|---|
| PAIR | 600+ | >0.88 | 0.83 | 最基础的 LLM 攻击 |
| TAP | 600+ | >0.85 | ~0.80 | 整体 ASR 最高 |
| PAP | 600+ | >0.82 | ~0.78 | 说服力导向攻击 |
| Crescendo | 600+ | >0.80 | ~0.75 | 多轮攻击 |
核心缩放趋势¶
| 趋势 | 量化 | 意义 |
|---|---|---|
| 更强模型=更好攻击者 | avg ASR 与 MMLU-Pro 线性相关(\(\rho>0.88\)) | 能力提升同时提升攻击力 |
| 更强模型=更难攻破 | Target ASR 随 MMLU-Pro 下降(R²=0.83) | 但下降趋势可预测 |
| 能力差主导 | ASR 主要取决于 \(\delta\)(差距),而非攻击者绝对能力 | 相对能力比绝对能力重要 |
| 社会科学>STEM | 心理学/健康/哲学分项相关性最强 | 说服力比知识量更关键 |
亮点与洞察¶
- 预测性工具:知道两个模型的 MMLU-Pro 分数,就可以预测红队测试的大致 ASR,减少昂贵的全量评测——节省可能上万 GPU 小时的测试成本
- 安全投资的量化:sigmoid 的右移量可以衡量安全训练的"等效能力提升"——Llama3 的右移比 Qwen2.5 更大,反映更强的安全投入
- 武器化风险的定量评估:随着开源模型能力提升,攻击者的可用能力池增大——一个新的 70B 开源模型发布,所有现有部署系统的攻击暴露面都需要重新评估
- Judge 不重要的实用启示:昂贵的闭源 Judge 对最终 ASR 无显著影响——社区不需要在 Judge 上花费大量 API 成本
消融实验与深入分析¶
| 分析维度 | 发现 |
|---|---|
| MMLU-Pro 分项相关性 | 社会科学分项(心理学、健康、哲学)与 ASR 相关性最强,超过 STEM |
| Judge 影响 | 强 Judge 提升 ASR@1(选择效果)但不影响 ASR@25(生成质量) |
| 攻击方法对比 | TAP 整体最强,Crescendo 的原始成功归因于 GPT-4 攻击者而非方法本身 |
| Llama2 异常 | 4 个早期 Llama 模型偏离趋势(过度拒绝+对抗训练),后续版本回归趋势 |
| 人类红队预测 | 假设人类 MMLU-Pro=0.898,ASR 随目标模型能力增长持续下降 |
局限与展望¶
- MMLU-Pro 作为能力代理可能在特定领域不够精确——Llama2 系列的偏离说明安全训练可以打破能力-鲁棒性的一般趋势
- 仅测试了 4 种自动攻击(PAIR/TAP/PAP/Crescendo),手工攻击或组合攻击可能不遵循同一缩放律
- 模型解锁(LoRA 微调去除安全对齐)可能不完全恢复攻击能力——解锁质量是潜在混淆因素。特别是某些模型(如 Claude)无法通过简单微调完全解锁
- 未考虑白盒攻击(GCG 等),仅限黑盒类人攻击——白盒攻击可能遵循不同的缩放规律
- Llama2 系列的偏离说明 MMLU-Pro 不是完美的防御能力代理——更好的代理可能是安全训练的 FLOPs 投入,但此数据不公开
相关工作与启发¶
- vs Ren et al. (2024) 安全基准分析:他们首次量化了 jailbreak 成功率与模型能力的负相关;本文进一步精确刻画为 sigmoid 函数
- vs Howe et al. (2025) GCG 缩放:研究 GCG 攻击在模型规模内的缩放,本文研究跨模型家族的能力差距缩放,维度互补
- vs PAIR/TAP/PAP:本文不是提出新攻击,而是用已有攻击揭示缩放规律——强调"规律"而非"方法"
- 启发——社会科学能力是盲点:当前安全评估聚焦于技术能力(代码、化学),但说服力和社会工程能力才是攻击成功的关键预测因子
评分¶
- 新颖性: ⭐⭐⭐⭐ 红队测试的缩放律是新发现,sigmoid 拟合可直接用于预测
- 实验充分度: ⭐⭐⭐⭐⭐ 600+ 模型对的大规模评测,含闭源前沿模型
- 写作质量: ⭐⭐⭐⭐ 结果清晰,图表信息密度高
- 价值: ⭐⭐⭐⭐⭐ 对 AI 安全评估有直接的工程指导意义和政策启示