跳转至

🛡️ AI 安全

📷 CVPR2025 · 23 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (2) · 📷 CVPR2026 (24) · 🔬 ICLR2026 (27) · 🤖 AAAI2026 (44) · 🧠 NeurIPS2025 (73) · 📹 ICCV2025 (22)

🔥 高频主题: 对抗鲁棒 ×8 · 联邦学习 ×6 · 人脸/视线 ×4 · 对齐/RLHF ×2

A Simple Data Augmentation for Feature Distribution Skewed Federated Learning

提出FedRDN——一种极其简单的联邦学习数据增强方法,在训练时随机使用其他客户端的通道级均值/标准差做数据归一化(而非固定用本地统计),仅需几行代码即可显著缓解特征分布偏移问题,在多种FL方法上一致提升性能。

Data-free Universal Adversarial Perturbation with Pseudo-Semantic Prior

提出 PSP-UAP,一种无需训练数据的通用对抗扰动生成方法,通过从 UAP 自身提取伪语义先验、输入变换增强和样本重加权策略,在白盒平均 89.95% 愚弄率、黑盒也大幅超越现有方法,且无需任何训练数据。

DEAL: Data-Efficient Adversarial Learning for High-Quality Infrared Imaging

提出 DEAL(Data-Efficient Adversarial Learning),一种仅需 50 张清晰红外图像训练的对抗学习框架,通过动态对抗退化合成和双通道交互网络(Scale Transform + Spiking Neurons),以 0.96M 超轻量参数同时处理条纹噪声、低分辨率和低对比度三种红外退化。

DeDe: Detecting Backdoor Samples for SSL Encoders via Decoders

Detecting Backdoor Attacks in Federated Learning via Direction Alignment Inspection

提出 AlignIns 防御方法,通过双粒度方向对齐检测(全局方向 + 细粒度符号分析)识别联邦学习中的恶意模型更新,在 IID 和 non-IID 设置下均优于现有防御方法。

Dynamic Integration of Task-Specific Adapters for Class Incremental Learning

通过动态集成任务特定适配器实现类增量学习,每个任务训练轻量适配器,推理时动态选择和组合相关适配器

FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors

提出 FedAWA,受任务算术(task arithmetic)启发,用客户端向量(本地参数与全局参数的差值)来自适应优化联邦学习中的聚合权重——与全局优化方向一致的客户端获得更高权重,在 non-IID 场景下稳定提升 FedAvg 1-4 个点。

Forensics Adapter: Adapting CLIP for Generalizable Face Forgery Detection

提出 Forensics Adapter,一个仅 5.7M 参数的轻量适配器网络,与冻结 CLIP 并行学习人脸伪造的融合边界特征,通过掩码边界预测+逐块对比+样本级对比三重目标实现跨数据集的高泛化性人脸伪造检测,CDF-v1 上 AUC 达 0.914。

Geometric Knowledge-Guided Localized Global Distribution Alignment for Federated Learning

在联邦学习中通过从局部协方差矩阵精确重建全局协方差来获取全局嵌入分布的几何形状,沿全局主方向生成增强样本本地化全局分布信息,在 CIFAR-100 极端异质场景(β=0.01)下提升 17 个百分点。

Gradient Inversion Attacks on Parameter-Efficient Fine-Tuning

首次证明 Adapter-based PEFT 在联邦学习中不是隐私安全的——恶意服务器可以将预训练模型设计为恒等映射使 patch embedding 原样传播到 adapter 层,从 adapter 梯度中解析式恢复训练图像(CIFAR-100 SSIM 0.88)。

Infighting in the Dark: Multi-Label Backdoor Attack in Federated Learning

本文首次研究了联邦学习中非合作多标签后门攻击(MBA)场景,揭示了现有单标签后门攻击方法扩展到多标签场景时因构建相似的分布外(OOD)映射而导致攻击者间相互排斥的内在缺陷,提出 Mirage 方法通过构建分布内(ID)后门映射,使多个攻击者可以独立且持久地植入后门,平均攻击成功率超过97%且在900轮后仍保持90%以上。

INACTIVE: Invisible Backdoor Attack against Self-supervised Learning

提出 INACTIVE,首个对自监督学习(SSL)有效的不可见后门攻击——通过在 HSV/HSL 色彩空间中设计触发器以逃离 SSL 数据增强的分布空间,实现 99.09% 平均攻击成功率,同时保持 SSIM 0.9763/PSNR 41.07dB 的高隐蔽性,抵抗 7 种防御方法。

Lyapunov Stable Graph Neural Flow

将 Lyapunov 稳定性理论(整数阶和分数阶)与图神经流集成,通过可学习 Lyapunov 函数和投影机制将 GNN 特征动态约束在稳定空间中,首次为图神经流提供可证明的对抗鲁棒性保证,且与对抗训练正交可叠加。

Mind the Gap: Detecting Black-box Adversarial Attacks in the Making through Query Update Analysis

本文提出了一种基于查询更新模式(而非输入模式)的黑盒对抗攻击检测框架 GWAD,引入 Delta Similarity 指标来捕获基于查询的攻击中零阶优化的固有模式,在8种SOTA攻击(包括自适应攻击OARS)上实现了接近100%的检测率且误报率极低,显著优于现有的状态化防御方法。

MOS-Attack: A Scalable Multi-Objective Adversarial Attack Framework

提出MOS Attack框架,将对抗攻击建模为多目标集合优化问题,结合smooth max/min近似实现多损失函数联合优化,并自动发现损失函数间的协同模式,在CIFAR-10和ImageNet上超越现有SOTA单目标攻击和集成攻击。

NoT: Federated Unlearning via Weight Negation

提出 NoT 算法,通过对全局模型特定层的权重乘以 -1(取反)来破坏层间协同适应从而实现遗忘,再用保留数据微调恢复性能,无需额外存储或访问目标数据,在 CIFAR-10/100、Caltech-101 上以最低通信/计算开销显著优于七种基线方法。

Optimal Transport-Guided Source-Free Adaptation for Face Anti-Spoofing

提出 OTA 框架:训练阶段学习原型表示编码源域分布,测试阶段通过最优传输(OT)在不访问源模型参数和训练数据的前提下,以 training-free 或轻量训练方式将原型迁移到目标域,同时提出 geodesic mixup 数据增强改善低数据场景的分类器学习。

PSBD: Prediction Shift Uncertainty Unlocks Backdoor Detection

提出 PSBD 方法,发现被植入后门的模型在推理时开启 dropout 后,干净数据的预测会偏移向目标类别而后门数据预测保持稳定(Prediction Shift 现象),基于此设计 Prediction Shift Uncertainty (PSU) 指标实现 SOTA 后门训练数据检测。

Split Adaptation for Pre-trained Vision Transformers

本文提出 Split Adaptation (SA),将预训练 ViT 分割为前端(量化后发送给客户端)和后端(留在服务器),通过双层噪声注入保护数据隐私,配合OOD增强和patch检索增强缓解噪声影响和过拟合,在保护模型和数据的前提下实现高效少样本下游适配。

Stacking Brick by Brick: Aligned Feature Isolation for Incremental Face Forgery Detection

提出 SUR-LID 方法解决增量人脸伪造检测 (IFFD) 中的灾难性遗忘问题:通过稀疏均匀回放 (SUR) 保留旧任务的全局特征分布,通过隐空间增量检测器 (LID) 中的特征隔离和决策对齐策略将新旧任务分布"逐块堆叠"而非相互覆盖。

Towards General Visual-Linguistic Face Forgery Detection

VLFFD 提出了一种视觉-语言范式的深度伪造检测方法,通过 Prompt Forgery Image Generator (PFIG) 自动生成带有细粒度文本描述的混合伪造图像,再用 Coarse-and-Fine Co-training (C2F) 框架联合训练粗粒度和细粒度数据,显著提升了检测模型的泛化性和可解释性。

Towards Source-Free Machine Unlearning

本文提出了一种无源机器遗忘(Source-Free Machine Unlearning)算法,在无法获取原始训练数据的条件下,通过近似估计保留数据的 Hessian 矩阵(仅使用待遗忘数据和训练好的模型),实现了对线性和混合线性分类器的高效遗忘,并提供了严格的理论上界保证。

Where the Devil Hides: Deepfake Detectors Can No Longer Be Trusted

揭示了 Deepfake 检测器面临的严重安全风险——第三方数据提供者可以通过注入密码控制的、自适应的、不可见的触发器来植入后门,使被污染的检测器在遇到带特定触发器的样本时产生错误判断,同时在正常样本上保持正常性能。支持 dirty-label 和 clean-label 两种攻击场景。