� LLM 安全¶
🤖 AAAI2026 · 29 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (21) · 📷 CVPR2026 (16) · 🔬 ICLR2026 (39) · 🧠 NeurIPS2025 (60) · 📹 ICCV2025 (8) · 🧪 ICML2025 (32)
🔥 高频主题: LLM ×12 · 对抗鲁棒 ×5 · 持续学习 ×3 · 水印/隐写 ×2
- Anti-adversarial Learning: Desensitizing Prompts for Large Language Models
-
提出 PromptObfus,通过"反对抗学习"思路将用户 prompt 中的敏感词替换为语义不同但不影响任务输出的词,从而在不降低远端 LLM 任务表现的前提下彻底消除显式隐私泄露,并将隐式隐私推理攻击成功率降低 62.70%。
- Attention Retention for Continual Learning with Vision Transformers
-
提出ARCL-ViT框架,通过注意力掩码生成和梯度掩码两步策略防止ViT在持续学习中的注意力漂移,在ImageNet-R和CIFAR-100上取得SOTA结果,证明保持注意力模式是解决灾难性遗忘的关键。
- AUVIC: Adversarial Unlearning of Visual Concepts for Multi-modal Large Language Models
-
提出AUVIC框架,通过对抗性扰动生成器 + 动态锚点保留机制,在MLLM中精确遗忘目标视觉概念(如特定人脸),同时避免对语义相似概念的附带遗忘,并构建了首个面向群体场景视觉概念遗忘的评测基准VCUBench。
- Beyond Superficial Forgetting: Thorough Unlearning through Knowledge Density Estimation and Block Re-insertion
-
提出 KUnBR 框架,通过梯度引导的知识密度估计定位有害知识富集层,并采用块重插入策略绕过 cover layer 的梯度遮蔽效应,实现对 LLM 有害知识的深度遗忘而非表面抑制。
- Can Editing LLMs Inject Harm?
-
本文将知识编辑技术重新定义为一种新型 LLM 安全威胁(Editing Attack),系统性地研究了通过 ROME、FT、ICE 三种编辑方法向 LLM 注入虚假信息和偏见的可行性,发现其效果显著且极具隐蔽性。
- CATFormer: When Continual Learning Meets Spiking Transformers With Dynamic Thresholds
-
提出 CATFormer,一种基于脉冲视觉 Transformer 的无数据重放持续学习框架,通过上下文自适应的动态放电阈值实现任务特定的神经元兴奋性调节,在长达 100 个任务序列中不仅不遗忘反而准确率提升("逆向遗忘"现象)。
- Democratizing LLM Efficiency: From Hyperscale Optimizations to Universal Deployability
-
本文是一篇立场论文(position paper),指出当前 LLM 效率研究被超大规模假设所主导,提出面向中小规模部署者的五大开放研究挑战,并倡导以开销感知效率(OAE)重新定义效率指标。
- Designing Truthful Mechanisms for Asymptotic Fair Division
-
提出 PRD(Proportional Response with Dummy)机制,首次在渐近公平分配设定下实现了"期望真实性 + 多项式时间可计算 + 高概率无嫉妒"三重保证,且仅需 \(m = \Omega(n \log n)\) 个物品,回答了 Manurangsi & Suksompong 提出的开放问题。
- FedALT: Federated Fine-Tuning through Adaptive Local Training with Rest-of-World LoRA
-
提出 FedALT,通过为每个客户端维护独立的 Individual LoRA(本地训练更新)和冻结的 Rest-of-World (RoW) LoRA(其他客户端平均),配合自适应 MoE 混合器动态平衡本地知识与全局知识,彻底避免 FedAvg 聚合导致的跨客户端干扰,在异构任务联邦 LLM 微调上显著优于 SOTA。
- From Single to Societal: Analyzing Persona-Induced Bias in Multi-Agent Interactions
-
本文首次系统研究了 LLM 多智能体交互中的人格诱导偏见,通过在协作问题解决和说服任务中的受控实验,揭示了三个关键发现:(1) 不同人格在可信度和坚持度上存在显著偏差(优势群体如男性和白人被视为更不可信);(2) 智能体表现出显著的内群体偏好;(3) 这些偏见在多轮、多智能体场景中持续存在且有放大趋势。
- Gender Bias in Emotion Recognition by Large Language Models
-
系统性地评估了多个 LLM(GPT-4/5、Mistral、LLaMA 等)在情感识别任务中的性别偏见,发现大多数模型对至少一个情感标签存在显著性别偏见,并通过实验证明推理时 prompt 策略(提示工程、上下文学习、CoT)无法有效去偏,而基于训练的微调方法可以有效缓解偏见。
- Ghost in the Transformer: Detecting Model Reuse with Invariant Spectral Signatures
-
提出 GhostSpec,一种无需数据、不修改模型行为的白盒方法,通过对注意力权重矩阵的不变乘积做 SVD 提取光谱指纹,可在微调、剪枝、合并、扩展甚至对抗性变换下稳健地验证 LLM 血统。
- GraphTextack: A Realistic Black-Box Node Injection Attack on LLM-Enhanced GNNs
-
提出 GraphTextack——首个针对 LLM 增强 GNN 的黑盒多模态节点注入投毒攻击,通过进化优化框架联合优化注入节点的图结构连接和语义特征,不依赖模型内部信息或代理模型,在5个数据集和2类LLM-GNN模型上显著优于12种基线方法。
- Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models
-
从计算复杂度理论出发证明 Transformer LLM 每步推理复杂度为 \(O(N^2 \cdot d)\),基于时间层次定理(Hartmanis-Stearns),任何需要超过此复杂度的计算任务——如 \(O(n^3)\) 矩阵乘法、\(O(n^k)\) token 组合、TSP 验证等——LLM 必然无法正确完成(即产生幻觉),且 LLM Agent 也无法验证此类任务的正确性。
- LAMP: Learning Universal Adversarial Perturbations for Multi-Image Tasks via Pre-trained Models
-
提出 LAMP,一种针对多图 MLLM 的 black-box Universal Adversarial Perturbation 学习方法,通过 attention 约束和"传染式"损失实现仅扰动少量图像即可跨模型/任务迁移攻击。
- Learning from the Undesirable: Robust Adaptation of Language Models without Forgetting
-
提出 Learning-from-the-Undesirable (LfU),一种面向 SFT 的正则化方法,通过对辅助模型施加梯度上升模拟"不良行为",再通过表示级一致性损失约束原模型与不良模型的内部表征保持一致,有效缓解有限数据微调中的过拟合、遗忘和对抗脆弱性问题。
- LLM Targeted Underperformance Disproportionately Impacts Vulnerable Users
-
系统实验表明,主流LLM(GPT-4、Claude 3 Opus、Llama 3-8B)对英语水平较低、教育程度较低、非美国出身的用户,在信息准确性、真实性和拒绝回答方面存在显著的歧视性表现下降,使最脆弱的用户成为最不可靠的信息服务对象。
- Lost in Translation? A Comparative Study on the Cross-Lingual Transfer of Composite Harms
-
提出 CompositeHarm 基准,通过将对抗语法攻击(AttaQ)和语境化危害(MMSafetyBench)翻译为五种印度语言,系统研究了 LLM 安全对齐在跨语言场景下的脆弱性,发现对抗语法攻击在印度语言中攻击成功率急剧攀升。
- PANDA: Patch and Distribution-Aware Augmentation for Long-Tailed Exemplar-Free Continual Learning
-
提出 PANDA 框架,通过 CLIP 引导的语义 patch 移植实现任务内类别平衡,并借助可学习的分布平滑机制缓解任务间分布偏移,以即插即用方式提升基于预训练模型的无样本存储持续学习在长尾场景下的性能。
- Perturb Your Data: Paraphrase-Guided Training Data Watermarking
-
提出SPECTRA——一种基于paraphrase采样的训练数据水印方法,通过LLM生成改写文本并利用Min-K%++评分选择与原文分数接近的paraphrase作为水印,在数据仅占训练语料0.001%的情况下,member与non-member的p-value差距稳定超过9个数量级。
- Principles2Plan: LLM-Guided System for Operationalising Ethical Principles into Plans
-
提出 Principles2Plan,一个交互式原型系统,通过人类与 LLM 协作将高层伦理原则(如仁善、隐私)转化为上下文相关的伦理规则,并嵌入 PDDL 规划器生成符合伦理的行动计划。
- PRISM: Privacy-Aware Routing for Adaptive Cloud-Edge LLM Inference via Semantic Sketch Collaboration
-
提出 PRISM 框架,通过上下文感知的软门控路由机制将用户 prompt 动态分配到云端/边缘/协作三种推理模式,并在协作模式中使用自适应两层本地差分隐私(LDP)和语义草图协作,实现隐私-效用-效率的三方平衡。
- Privacy-protected Retrieval-Augmented Generation for Knowledge Graph Question Answering
-
首次探索知识图谱问答(KGQA)中的隐私保护 RAG 场景,提出 ARoG(Abstraction Reasoning on Graph)框架,通过关系中心抽象和结构导向抽象两种策略,在实体被匿名化(替换为无意义的 MID)的条件下,仍能有效检索和利用知识图谱回答问题。
- PSM: Prompt Sensitivity Minimization via LLM-Guided Black-Box Optimization
-
提出 PSM 框架,将系统提示防护形式化为效用约束下的黑盒优化问题,利用 LLM-as-Optimizer 自动搜索最优"盾牌"后缀,在不降低模型功能的前提下将提示泄漏攻击成功率降至接近零。
- SproutBench: A Benchmark for Safe and Ethical Large Language Models for Youth
-
提出 SproutBench,一个包含 1,283 个发展心理学驱动的对抗性提示的评估基准,系统评估 47 个 LLM 在儿童和青少年(0-6、7-12、13-18 岁)场景下的安全性,发现安全性与风险预防强相关(\(\rho = 0.86\)),交互性与年龄适配性存在显著权衡(\(\rho = -0.48\))。
- StyleBreak: Revealing Alignment Vulnerabilities in Large Audio-Language Models via Style-Aware Audio Jailbreak
-
提出 StyleBreak,首个基于语音风格的音频越狱框架,通过两阶段风格感知变换管道和查询自适应策略网络,系统研究语言学、副语言学和超语言学属性对 LAM 对齐鲁棒性的影响,在多种攻击范式下将 ASR 提升 7.1%-22.3%。
- The Confidence Trap: Gender Bias and Predictive Certainty in LLMs
-
提出Gender-ECE指标,系统评估六种开源LLM在性别代词预测任务中的置信度校准与人类偏见对齐程度,发现Gemma-2模型校准最差且存在极端的男女代词校准差异,而训练数据过滤较少的GPT-J-6B反而校准最好。
- Uncovering Bias Paths with LLM-guided Causal Discovery: An Active Learning and Dynamic Scoring Approach
-
提出一种融合LLM语义先验与统计信号的混合因果发现框架,通过主动学习(Active Learning)和动态评分机制优先查询信息量最大的变量对,在噪声和混淆条件下有效恢复公平性关键因果路径(如 sex→education→income),显著优于传统CD方法和朴素LLM方法。
- WaterMod: Modular Token-Rank Partitioning for Probability-Balanced LLM Watermarking
-
提出 WaterMod,一种基于模算术 (\(\text{rank} \bmod k\)) 的 LLM 文本水印方法,通过对概率排序后的词表进行模残差类划分,在零比特(\(k=2\))和多比特(\(k>2\))水印场景下统一实现高检测率和低质量损耗,无需外部同义词库或哈希技巧。