跳转至

Neural Gate: Mitigating Privacy Risks in LVLMs via Neuron-Level Gradient Gating

会议: CVPR 2025
arXiv: 2603.12598
代码: 待确认
领域: AI安全 / 隐私保护
关键词: LVLM隐私, 神经元编辑, 梯度门控, 隐私保护, 模型编辑

一句话总结

Neural Gate 发现 LVLM 中隐私相关神经元具有强跨样本不一致性——仅约 10% 的神经元一致性编码隐私信号。基于此发现,提出神经元级梯度门控编辑:仅对强一致性隐私神经元施加梯度更新,在 MiniGPT 上将 Safety EtA 从 0.48 提升至 0.89,同时 Utility 保持不降。

研究背景与动机

领域现状:LVLM(MiniGPT, LLaVA)处理图像+文本的多模态输入,在金融、医疗等关键领域部署。但恶意用户可以让模型从包含身份证、护照等的图像中提取敏感信息。

现有痛点:(1) 知识遗忘方法(gradient ascent)全局扰动输出分布,容易破坏正常问答能力;(2) 传统模型编辑(ROME, MEMIT)泛化性差,对训练中未见的隐私查询无效;(3) 现有方法在模型/层级别操作,忽略了神经元级别的精细结构。

核心矛盾:隐私相关神经元表现出强烈的跨样本不一致性——大量神经元仅在特定上下文下激活。如果不区分"一致性强"和"上下文依赖"神经元,编辑会引入不必要的修改,损害模型稳定性和泛化性。

本文目标:如何在神经元级别精准定位一致性隐私编码维度,仅编辑这些维度?

切入角度:构建 PrivacyPair 配对数据集(同一隐私主体、不同敏感度的查询对),通过可学习特征向量 \(m_l\) 分析每个神经元维度对隐私行为的贡献。

核心 idea:定位一致性编码隐私的 ~10% 强活跃神经元 → 仅对这些维度施加梯度门控 → 精准的隐私编辑+泛化+保持通用能力。

方法详解

整体框架

PrivacyPair 数据构建 → 逐层可学习向量 \(m_l\) 量化特征变化 → 跨样本聚合得到 Neural Gate 向量 \(M_l\) → 模型编辑时对隐私主体 token 的 FFN 梯度施加 \(M_l > 0.3\) 的二值掩码。

关键设计

  1. PrivacyPair 配对数据集

    • 功能:为每个隐私主体(护照、学生证、军事装备等 6 类)构造成对样本:同一图像+同一模板,仅替换一个属性词(敏感 vs 良性)
    • 核心思路:如"请告诉我图中护照的[护照号码]" vs "请告诉我图中护照的[类型]"。前者应拒绝,后者应正常回答
    • 设计动机:配对设计使模型聚焦于隐私敏感性差异而非句法差异,精确隔离隐私信号
  2. 特征变化量化(可学习向量 \(m_l\)

    • 功能:在冻结模型参数的情况下,在第 \(l\) 层引入可学习向量 \(m_l \in [-1,1]^d\)(初始化为全 1),对隐私主体 \(S\) 的特征做逐元素缩放:\(f_l^S = f_l^S \odot m_l\)
    • 优化目标:\(m_l^* = \arg\min_{m_l} \mathcal{L}_{\text{sen}} + \alpha \mathcal{L}_{\text{benign}} + \mathcal{L}_1\)
    • 分析:\(m_l[i] < 0\) 表示该维度需要翻转符号才能实现隐私防护——仅约 20%-40% 的维度在某些样本中出现翻转,且大多数翻转仅在 <30% 的样本中一致出现
    • 设计动机:隐私表征稀疏且高度上下文依赖——需要跨样本聚合找到一致性强的维度
  3. Neural Gate 机制

    • 功能:聚合所有样本的 \(m_l\) 得到 gate 向量 \(M_l[j] = \frac{1}{N}\sum_{i=1}^N \mathbf{1}[m_l^i[j] < 0]\)
    • 三类神经元分类:inactive\(M_l[j]=0\),不参与隐私)、weakly active\(M_l[j] \leq 0.3\),上下文依赖)、strongly active\(M_l[j] > 0.3\),一致性隐私编码,约占 10%)
    • 编辑时:\(\theta_{FFN}^l \leftarrow \theta_{FFN}^l - \eta((M_l > 0.3) \odot \nabla_{\theta}^S \mathcal{L} + \nabla_{\theta}^{\neg S} \mathcal{L})\)——仅对隐私主体 token 的强活跃维度施加梯度,非主体 token 的梯度完整保留
    • 设计动机:过滤上下文依赖神经元防止过拟合特定训练场景;保留非隐私神经元梯度防止通用能力退化

层选择策略

  • 强活跃神经元比例在 LLM 第 3-19 层呈"先升后降"趋势
  • 以最高比例层为搜索中心 \(o\),扩展搜索半径 \(r\) 选择最优编辑层

实验关键数据

主实验

模型 方法 Safety Avg↑ Utility Avg↑
MiniGPT Baseline 0.4796 0.5416
MiniGPT MEMIT 0.6872 0.5483
MiniGPT DINM 0.8417 0.6350
MiniGPT Neural Gate 0.8918 0.6330
LLaVA Baseline 0.4390 0.7231
LLaVA DINM 0.8187 0.7321
LLaVA Neural Gate 0.8566 0.7230

消融实验

配置 Safety Avg Utility Avg 说明
Single-layer w/o Gate 0.7581 0.6042 无门控,编辑所有维度
Single-layer w/ Gate 0.8918 0.6330 +Gate 大幅提升Safety
Multi-layer w/o Gate 0.8237 0.4241 多层无门控严重损害Utility
Multi-layer w/ Gate 0.8345 0.4553 多层+Gate 仍有Utility下降

关键发现

  • Neural Gate 显著提升泛化性:在 MLLMGuard(OOD 隐私攻击)上,MiniGPT w/ Gate 达 0.8440 vs w/o Gate 仅 0.6147——跨分布泛化提升 37%
  • 单层编辑优于多层——多层编辑即使有 Gate 也会损害 Utility(MiniGPT Utility 0.4553 vs 0.6330)
  • 敏感查询拒绝率:MiniGPT 94%+, LLaVA 96%+,良性查询响应率仅降 ~3%
  • 30% 阈值在一致性和覆盖率之间最佳平衡——更高丢失覆盖,更低引入噪声
  • MEMIT/AlphaEdit 等非梯度编辑方法在配对结构上失效——因同一主体的敏感/良性查询产生相反的编辑方向

亮点与洞察

  • "隐私神经元"的分析性发现:隐私编码稀疏(~10%)且跨样本高度不一致——这一发现本身为理解 LVLM 内部表征提供了新视角
  • 梯度门控 vs 全参数编辑的精确性:仅编辑 10% 维度实现安全性提升的同时保持通用能力,体现了"最小必要干预"原则
  • PrivacyPair 的设计巧妙:仅替换一个属性词创建配对,使分析能精确定位隐私信号而非语法差异
  • 可迁移范式:一致性神经元定位→精准编辑的范式可用于其他安全目标(如去偏见、防毒性输出)

局限与展望

  • 需要为每个隐私主体构造 PrivacyPair 配对数据——扩展到新隐私类型需要人工设计
  • 仅在 7B 模型验证——更大模型(13B/70B)的隐私神经元分布可能不同
  • 30% 阈值的跨架构/跨任务通用性未验证
  • 假设隐私信号在 FFN 中编码——注意力层中的隐私信号未被考虑
  • 仅处理了"敏感信息提取"类隐私风险——其他隐私攻击模式(如成员推断)未覆盖

相关工作与启发

  • vs DINM: DINM 编辑 FFN 参数减少毒性,Safety 强但泛化性低于 Neural Gate(0.7522 vs 0.8440 on MLLMGuard)
  • vs SKU (知识遗忘): 梯度上升法全局扰动分布,Utility 损害严重(MemFlex Utility 仅 0.2649)
  • vs MEMIT/AlphaEdit: 非梯度编辑方法在配对隐私结构上失效——同一主体有两个相反编辑方向
  • 对做 LVLM 安全对齐、模型编辑的研究者有直接参考价值

评分

  • 新颖性: ⭐⭐⭐⭐ 隐私神经元分析+梯度门控的组合有创新性
  • 实验充分度: ⭐⭐⭐⭐ 2 个模型、6 个 benchmark、详细消融和分析
  • 写作质量: ⭐⭐⭐⭐ 神经元分析图表丰富清晰
  • 价值: ⭐⭐⭐⭐ LVLM 隐私保护的实用方案,分析性发现有独立价值