跳转至

🛡️ AI 安全

🤖 AAAI2026 · 44 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (2) · 📷 CVPR2026 (24) · 🔬 ICLR2026 (27) · 🧠 NeurIPS2025 (73) · 📹 ICCV2025 (22) · 🧪 ICML2025 (36)

🔥 高频主题: 对抗鲁棒 ×18 · 水印/隐写 ×6 · 联邦学习 ×3 · 语音 ×2 · 推荐系统 ×2

Alternative Fairness and Accuracy Optimization in Criminal Justice

本文系统综述了算法公平性的三大维度(群体公平、个体公平、过程公平),提出了一种基于容差约束的改进群体公平性优化公式,并构建了面向公共决策系统的"公平三支柱"部署框架。

An Improved Privacy and Utility Analysis of Differentially Private SGD with Bounded Domain and Smooth Losses

在仅假设损失函数L-光滑(不需要凸性)的条件下,为DPSGD推导出了更紧的闭式RDP隐私界,并首次在有界域场景下给出了完整的收敛性/效用分析,揭示了较小的参数域直径可以同时改善隐私和效用。

An Information Theoretic Evaluation Metric for Strong Unlearning

揭示现有黑盒遗忘评估指标(MIA/JSD等)的根本缺陷——仅修改最后一层即可满足所有黑盒指标但中间层完整保留遗忘数据信息,提出IDI白盒指标通过InfoNCE估计各层与遗忘标签的互信息差异来量化遗忘效果,并提出COLA方法在CIFAR-10/100和ImageNet-1K上实现接近Retrain的IDI得分。

Angular Gradient Sign Method: Uncovering Vulnerabilities in Hyperbolic Networks

提出Angular Gradient Sign Method (AGSM),将双曲空间中的梯度分解为径向(层次深度)和角度(语义)分量,仅沿角度方向施加扰动来生成对抗样本,在图像分类和跨模态检索任务上比标准FGSM/PGD多降低5-13%的准确率。

Authority Backdoor: A Certifiable Backdoor Mechanism for Authoring DNNs

提出 Authority Backdoor,将硬件指纹作为后门触发器嵌入 DNN,使模型仅在授权设备上正常工作,并通过随机平滑实现可认证鲁棒性,抵御自适应触发器逆向攻击。

Breaking the Adversarial Robustness-Performance Trade-off in Text Classification via Manifold Purification

提出 Manifold-Correcting Causal Flow (MC²F) 框架,通过分层黎曼连续正则化流 (SR-CNF) 学习干净数据嵌入的流形密度进行对抗样本检测,再用测地线净化求解器 (Geodesic Purification Solver) 将被检测为对抗的嵌入沿最短路径投影回干净流形,在 SST-2/AGNews/YELP 三个数据集上对抗鲁棒性全面超越 SOTA,同时完全不损失(甚至略微提升)干净数据精度。

Breaking the Dyadic Barrier: Rethinking Fairness in Link Prediction Beyond Demographic Parity

本文揭示了链接预测中二元公平性(dyadic fairness)和 Demographic Parity(ΔDP)的三大根本缺陷——GNN 表达力不足、子群偏差被掩盖、对排序不敏感——并提出基于 NDKL 的排序感知公平度量和后处理算法 MORAL,在六个数据集上实现了 SOTA 的公平性-效用权衡。

CoRe-Fed: Bridging Collaborative and Representation Fairness via Federated Embedding Distillation

提出 CoRe-Fed 框架,通过嵌入级对比对齐与贡献感知聚合两个协同模块,同时解决联邦学习中的表示公平性和协作公平性问题,在异构数据分布下显著提升全局模型的公平性与泛化能力。

DeepTracer: Tracing Stolen Model via Deep Coupled Watermarks

提出DeepTracer鲁棒水印框架,通过自适应源类选择(K-Means聚类覆盖特征空间)+ 同类耦合损失(拉近水印样本与目标类在输出空间的距离)+ 两阶段关键样本过滤,使水印任务与主任务深度耦合,在6种模型窃取攻击(含hard-label和data-free)下水印成功率平均达77-100%,远超现有方法。

Detect All-Type Deepfake Audio: Wavelet Prompt Tuning for Enhanced Auditory Perception

首次建立全类型(语音/声音/歌声/音乐)音频深伪检测基准,提出小波提示调优(WPT)方法通过离散小波变换增强 SSL 特征的全频域感知能力,在不增加训练参数的前提下超越全量微调,co-training 后平均 EER 仅 3.58%。

Diversifying Counterattacks: Orthogonal Exploration for Robust CLIP Inference

提出方向正交反攻击(DOC)方法,通过在反攻击优化中引入正交梯度分量和动量更新扩展搜索空间,结合基于余弦相似度的方向敏感度评分自适应调控反攻击强度,在 16 个数据集上显著提升 CLIP 的测试时对抗鲁棒性。

Easy to Learn, Yet Hard to Forget: Towards Robust Unlearning Under Bias

提出 CUPID 框架,通过损失景观的锐度分析将遗忘集划分为因果/偏差子集,并识别和分离模型中的因果/偏差通路,实现对有偏模型的精准类别遗忘,有效解决"捷径遗忘"问题。

EFX and PO Allocation Exists for Two Types of Goods

证明了当物品只有两种类型且所有估值为正时,满足 EFX(任意物品无嫉妒)和 Pareto 最优的分配总是存在的,并给出了准线性时间算法。

Enhancing DPSGD via Per-Sample Momentum and Low-Pass Filtering

提出 DP-PMLF,通过逐样本动量(per-sample momentum)降低裁剪偏差,同时利用低通滤波器(low-pass filter)抑制高频 DP 噪声,首次同时从两个方向缓解 DPSGD 的精度退化问题。

Fair Model-Based Clustering

提出基于有限混合模型的公平聚类算法 FMC,通过在模型参数(而非样本级赋值)上施加公平性约束,实现参数量与样本量无关的可扩展公平聚类,支持小批量学习和分类数据,在大规模数据集上显著优于现有方法。

FairGSE: Fairness-Aware Graph Neural Network without High False Positive Rates

首次揭示公平感知 GNN 中的"FPR 捷径"问题——现有方法通过大量误判负样本为正来达到公平指标,提出 FairGSE 框架通过最大化二维结构熵重新加权图边来同时改善公平性并降低假阳性率,FPR 降低 39%。

Fine-Grained DINO Tuning with Dual Supervision for Face Forgery Detection

提出 DFF-Adapter(DeepFake Fine-Grained Adapter),针对 DINOv2 设计的轻量级深度伪造检测微调方案。通过在每个 Transformer 块中注入三分支适配器(真实性检测头、伪造类型分类头、共享头),结合 Forgery-Aware Multi-Head Router 实现子空间级 LoRA 专家动态路由,利用辅助的伪造类型分类任务增强主任务的伪影敏感性,仅 3.5M 可训练参数即在多个跨数据集评估中达到 SOTA。

Generalizing Fair Clustering to Multiple Groups: Algorithms and Applications

将最近公平聚类(Closest Fair Clustering)问题从仅两个群体推广到任意多群体,证明三群体以上等比例情形已为NP-hard,提出近线性时间近似算法(等比例 \(O(|\chi|^{1.6}\log^{2.81}|\chi|)\)、任意比例 \(O(|\chi|^{3.81})\)),并将结果推广至公平相关聚类和公平共识聚类问题。

Hashed Watermark as a Filter: A Unified Defense Against Forging and Overwriting Attacks in Neural Network Watermarking

提出 NeuralMark——一种基于哈希水印过滤器的权重水印方法,利用哈希函数从秘钥生成不可逆二值水印作为私有过滤器选择嵌入参数,借助雪崩效应阻断伪造攻击的梯度反推,通过多轮过滤减少参数重叠抵御覆写攻击,在13种CNN/Transformer架构、5个图像分类和1个文本生成任务上验证了有效性和鲁棒性。

HealSplit: Towards Self-Healing through Adversarial Distillation in Split Federated Learning

提出 HealSplit,首个针对分割联邦学习(SFL)的统一防御框架,通过拓扑感知检测(TAS)识别中毒样本、GAN 生成语义一致的替代表示、对抗多教师蒸馏训练一致性验证学生模型,实现端到端检测与恢复,在五类投毒攻击下均大幅超越十种 SOTA 防御方法。

Improving the Convergence Rate of Ray Search Optimization for Query-Efficient Hard-Label Attacks

本文针对硬标签黑盒对抗攻击中的查询效率瓶颈,提出基于 Nesterov 加速梯度的动量算法 ARS-OPT,并引入代理模型先验得到增强版 PARS-OPT,在理论上证明了更快的收敛率,在 ImageNet 和 CIFAR-10 上超越 13 种 SOTA 方法。

InfoDecom: Decomposing Information for Defending Against Privacy Leakage in Split Inference

提出 InfoDecom,通过两级信息分解(频域视觉信息去除 + 互信息抑制)减少 smashed data 中的冗余信息,再添加闭式计算的高斯噪声提供理论隐私保证,在浅层客户端模型下实现远优于现有方法的 utility-privacy trade-off。

Learning to Collaborate: An Orchestrated-Decentralized Framework for Peer-to-Peer Collaborative Learning

提出 KNEXA-FL 框架,通过一个不接触模型的中央配对器(CPM)将 P2P 协作建模为上下文 Bandit 问题,使用 LinUCB 学习最优配对策略,在异构 LLM 联邦学习中实现比随机 P2P 高约 50% 的 Pass@1 提升,且避免了中心化蒸馏的灾难性崩溃。

Matrix-Free Two-to-Infinity and One-to-Two Norms Estimation

提出 TwINEst 和 TwINEst++ 两种基于 Hutchinson 对角估计器的随机算法,用于在无矩阵 (matrix-free) 设定下高效估计 \(\|A\|_{2\to\infty}\)\(\|A\|_{1\to 2}\) 范数,并提供了 oracle 复杂度理论保证,在 DNN 的 Jacobian 正则化(图像分类对抗鲁棒性)和推荐系统对抗攻击防御中展现了显著优势。

Minimizing Inequity in Facility Location Games

研究实数轴上设施选址博弈中最小化组间最大加权效果(Maximum Group Effect)的问题,提出 BALANCED 和 MAJOR-PHANTOM 两种策略防护机制,在单设施场景下实现紧近似比,统一了功利主义(社会成本)、平等主义(最大成本)等经典目标和组公平目标,并将 endpoint 机制扩展到双设施场景。

MPD-SGR: Robust Spiking Neural Networks with Membrane Potential Distribution-Driven Surrogate Gradient Regularization

从理论上建立了 SNN 鲁棒性误差与代理梯度(SG)幅值之间的联系,揭示减少膜电位分布(MPD)与 SG 梯度可用区间的重叠比例可有效降低对抗扰动敏感度,据此提出 MPD-SGR 正则化方法,在 vanilla training 和 adversarial training 设置下均大幅超越现有 SNN 防御方法。

Plug-and-Play Parameter-Efficient Tuning of Embeddings for Federated Recommendation

提出一个即插即用的联邦推荐框架,通过将 PEFT(Parameter-Efficient Fine-Tuning)理念引入物品嵌入,冻结预训练的全量嵌入并仅传输轻量级压缩嵌入(LoRA / Hash / RQ-VAE),大幅降低通信开销的同时提升推荐精度。

Privacy Auditing of Multi-Domain Graph Pre-Trained Model under Membership Inference Attack

提出 MGP-MIA 框架,首次针对多域图预训练模型开展成员推理攻击(MIA),通过机器遗忘放大成员信号、增量学习构建影子模型、基于相似度的推理机制,有效揭示多域图预训练的隐私泄漏风险。

Privacy on the Fly: A Predictive Adversarial Transformation Network for Mobile Sensor Data

提出 PATN(Predictive Adversarial Transformation Network),首个将对抗扰动引入传感器数据隐私保护的框架,利用历史传感器数据生成面向未来的对抗扰动,实现零延迟的实时隐私保护,同时保持传感器数据的语义保真度。

ProbLog4Fairness: A Neurosymbolic Approach to Modeling and Mitigating Bias

提出 ProbLog4Fairness 框架,利用概率逻辑编程语言 ProbLog 将数据中的偏差机制形式化为可解释的逻辑程序,并通过 DeepProbLog 的远程监督将偏差假设集成到神经网络训练中,实现灵活、原则性的偏差缓解。

Reference Recommendation based Membership Inference Attack against Hybrid-based Recommender Systems

提出基于参考推荐的成员推理攻击(MIA),设计相对成员度量 \(\rho(u) = d(v_t, v_h) / d(v_t, v_r)\),利用混合推荐系统的个性化特性获取参考推荐,首次有效攻击混合推荐系统,攻击成功率高达 93.4% 且计算成本仅需 10 秒。

RegionMarker: A Region-Triggered Semantic Watermarking Framework for Embedding-as-a-Service

提出基于语义区域触发的水印框架 RegionMarker,在低维空间中定义触发区域并注入语义水印,是首个能同时抵御 CSE 攻击、改写攻击和维度扰动攻击的 EaaS 版权保护方法。

Rethinking Target Label Conditioning in Adversarial Attacks: A 2D Tensor-Guided Generative Approach

提出 TGAF 框架,利用扩散模型将目标标签编码为 2D 语义张量来引导对抗噪声生成,并设计随机遮挡策略保留完整语义信息,显著提升目标对抗攻击的可迁移性。

Revisiting (Un)Fairness in Recourse by Minimizing Worst-Case Social Burden

系统分析了算法追索 (algorithmic recourse) 中公平性度量的三大局限(忽视分类器决策行为、忽略真实标签、差距指标掩盖不公平),提出基于社会负担 (social burden) 的公平性框架 MISOB,通过极小化极大加权训练策略减少所有群体的社会负担,无需访问敏感属性即可在预测和追索阶段同时提升公平性。

Robust Watermarking on Gradient Boosting Decision Trees

提出首个针对 GBDT 模型的鲁棒水印框架,通过 in-place 微调嵌入水印,设计了四种嵌入策略(Wrong Prediction Flip、Outlier Flip、Cluster Center Flip、Confidence Flip),实现高嵌入成功率、低精度损失和强抗微调鲁棒性。

SecMoE: Communication-Efficient Secure MoE Inference via Select-Then-Compute

提出 SecMoE 框架,通过 Select-Then-Compute 范式在两方安全计算中高效实现稀疏 MoE 推理,避免冗余专家计算,通信量降低最高 29.8 倍,端到端加速最高 16.1 倍。

Sim-to-Real: An Unsupervised Noise Layer for Screen-Camera Watermarking Robustness

提出 Simulation-to-Real (S2R) 框架,首创"数学建模 → 无监督域迁移"两阶段噪声近似策略:先用数学模型将清晰图像变换到已知噪声域 \(\mathcal{C}\),再用无监督 Image-to-Image 网络 \(G\)\(\mathcal{C}\) 映射到真实屏幕-相机噪声域 \(\mathcal{U}\),无需配对数据即可精确逼近真实 SC 噪声,在多设备、多角度、多距离条件下均取得最优水印鲁棒性(BER 降低 30-60%)和图像质量(PSNR 42.27 dB / SSIM 0.962)。

TopoReformer: Mitigating Adversarial Attacks Using Topological Purification in OCR Models

提出 TopoReformer,一种基于拓扑自编码器的模型无关对抗纯化管线,利用持久同调(persistent homology)在潜空间中强制拓扑一致性,无需对抗训练即可过滤对抗扰动,有效保护 OCR 系统免受经典攻击、自适应攻击和 OCR 专用水印攻击。

Towards Effective, Stealthy, and Persistent Backdoor Attacks Targeting Graph Foundation Models

提出 GFM-BA,首个系统性地针对 Graph Foundation Models (GFMs) 预训练阶段的后门攻击方法,通过 label-free trigger 关联、node-adaptive trigger 生成和 persistent backdoor anchoring 三个模块,同时解决有效性、隐蔽性和持久性三大挑战。

Towards Multiple Missing Values-Resistant Unsupervised Graph Anomaly Detection

提出 M2V-UGAD 框架,首次解决节点属性和图拓扑同时缺失下的无监督图异常检测问题,通过双通路独立填补、超球潜空间融合和伪异常生成三个核心机制,克服跨视图干扰和填补偏差,在7个基准数据集上一致超越现有方法。

Transferable Backdoor Attacks for Code Models via Sharpness-Aware Adversarial Perturbation

提出 STAB(Sharpness-aware Transferable Adversarial Backdoor),通过 SAM 训练代理模型使其收敛到损失平面的平坦区域,并使用 Gumbel-Softmax 优化生成上下文感知的对抗触发器,首次实现了同时兼顾跨数据集迁移性和隐蔽性的代码模型后门攻击。

Transferable Hypergraph Attack via Injecting Nodes into Pivotal Hyperedges

提出 TH-Attack,一种面向超图神经网络(HGNNs)的可迁移节点注入攻击框架,通过识别信息聚合路径中的关键超边并注入语义反转的恶意节点,在黑盒场景下实现对多种 HGNN 架构的有效攻击,Accuracy 可从 80%+ 降至 30% 以下。

Truth, Justice, and Secrecy: Cake Cutting Under Privacy Constraints

本文提出首个隐私保护的蛋糕切割协议 PP_CC_puv,将 Chen 等人的策略防操纵公平分配算法改造为基于秘密共享和安全多方计算(MPC)的隐私保护版本,在保持无嫉妒性、Pareto 最优和策略防操纵性的同时,确保参与者的偏好信息不被泄露。

Yours or Mine? Overwriting Attacks Against Neural Audio Watermarking

首次系统研究神经音频水印的覆写攻击(overwriting attack),提出白盒、灰盒、黑盒三级攻击方案,在 AudioSeal、Timbre、WavMark 三种 SOTA 方法上均实现接近 100% 的攻击成功率,暴露了现有音频水印系统严重的安全缺陷。