💬 LLM / NLP¶
🤖 AAAI2026 · 38 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (36) · 📷 CVPR2026 (9) · 🔬 ICLR2026 (46) · 🧠 NeurIPS2025 (53) · 📹 ICCV2025 (8) · 🧪 ICML2025 (28)
🔥 高频主题: LLM ×17 · 推理 ×7 · 对抗鲁棒 ×2 · 对齐/RLHF ×2 · 少样本学习 ×2
- A Content-Preserving Secure Linguistic Steganography
-
提出首个内容保持型语言隐写术范式CLstega,通过微调掩码语言模型(MLM)来可控地变换预测分布,将秘密信息嵌入到不做任何修改的原始文本中,实现了100%提取成功率和近乎完美的安全性(隐写分析检测准确率接近随机猜测的0.5)。
- An Invariant Latent Space Perspective on Language Model Inversion
-
提出不变潜空间假说(ILSH),将LLM反演问题重新建模为复用LLM自身潜空间,设计Inv²A框架通过轻量级逆编码器将输出映射到去噪伪表示,再由冻结的LLM解码恢复隐藏prompt,在9个数据集上BLEU平均提升4.77%且仅需20%数据量即可达到可比性能。
- AutoMalDesc: Large-Scale Script Analysis for Cyber Threat Research
-
提出 AutoMalDesc 自动化静态分析框架,通过迭代自步学习流水线——从 900 个专家标注种子样本出发,经 LoRA 微调 Llama-3.3-70B 生成伪标签,多阶段质量过滤后进行 V2 训练——实现 5 种脚本语言的恶意软件自动分类和行为描述,Batch 脚本检测准确率从 52.7% 提升到 82.4%。
- Blue Teaming Function-Calling Agents
-
系统评估了四个开源function-calling LLM在三种攻击下的鲁棒性,并测试了八种防御方案的效果,揭示了当前模型默认不安全、防御方案在实际场景中仍难以部署的现状。
- C3TG: Conflict-aware, Composite, and Collaborative Controlled Text Generation
-
提出 C3TG 框架,通过两阶段方法实现多维度细粒度可控文本生成:生成阶段用加权 KL 散度融合属性分布调整 token 概率,优化阶段用能量函数(分类器分数 + 冲突惩罚项)结合 Feedback Agent 迭代重写,在 17 个属性子类上达到 90.4% 属性准确率且大幅降低毒性。
- CoEvo: Continual Evolution of Symbolic Solutions Using Large Language Models
-
提出CoEvo框架,结合LLM与进化搜索方法论,通过动态知识库和多表示空间(自然语言/数学公式/代码)实现符号解的持续开放式进化,在AI Feynman基准上大幅超越现有符号回归方法。
- Collaborative LLM Numerical Reasoning with Local Data Protection
-
提出一种大小模型协作框架,通过对本地查询进行"主题迁移+数值替换"的两阶段匿名化来保护敏感数据,同时让远端 GPT-4 以可执行 Python 代码(即插即用工具)形式返回推理方案,本地仅需做数值回代即可获得答案,在 FinQA 和 MultiHiertt 上准确率提升 16-44% 且数据泄露降低 2-45%。
- Control Illusion: The Failure of Instruction Hierarchies in Large Language Models
-
系统性揭示了当前 LLM 中 system/user 提示分离机制无法有效建立指令优先级,并发现预训练习得的社会层级先验(权威、专业、共识)比显式的 system/user 角色对模型行为有更强的控制力。
- Conversational Learning Diagnosis via Reasoning Multi-Turn Interactive Learning
-
提出 ParLD(Preview-Analyze-Reason 框架),通过多 Agent 协作实现对话式学习过程中学生认知状态的细粒度逐轮诊断,在性能预测上超越传统知识追踪方法 10%,并显著提升辅导效果。
- Do Large Language Models Think Like the Brain? Sentence-Level Evidences from Layer-Wise Embeddings and fMRI
-
本文通过对比14个公开LLM的逐层表示与人类被试听自然叙事时的fMRI数据,在句子级别系统地研究了LLM与人脑语言处理的对齐程度,发现中间层最对齐、指令微调显著增强对齐、且存在与经典神经语言学理论一致的半球偏侧化模式。
- Do Not Merge My Model! Safeguarding Open-Source LLMs Against Unauthorized Model Merging
-
提出MergeBarrier,一种即插即用的防御方法,通过对注意力层施加正交投影、对FFN层进行激活函数展开重参数化,破坏受保护模型与同源模型之间的线性模态连通性(LMC),从而在不损失模型性能的前提下主动阻止未授权的模型合并。
- From Classification to Ranking: Enhancing LLM Reasoning for MBTI Personality Detection
-
将MBTI人格检测从传统的四维二分类重构为listwise排序任务,通过SFT冷启动+GRPO强化学习(NDCG+维度相似度双奖励),在Kaggle和PANDORA数据集上以7B模型达到SOTA。
- Guess or Recall? Training CNNs to Classify and Localize Memorization in LLMs
-
在 LLM 注意力权重上训练 CNN 来评估记忆化分类法与实际注意力机制的对齐程度,提出新的三类分类法(Guess/Recall/Non-Memorized),最小 F1 从 64.7% 提升至 89.0%,并定位了不同记忆类型分别依赖低层(Guess)和高层(Recall)注意力。
- ICL-Router: In-Context Learned Model Representations for LLM Routing
-
提出 ICL-Router,通过两阶段训练(查询重建 + ICL模型路由)将 LLM 的能力画像编码为 in-context 向量,实现可扩展的动态模型路由——新增模型无需重训路由器,在分布内和分布外任务上均达到 SOTA。
- Identifying and Analyzing Performance-Critical Tokens in Large Language Models
-
通过representation-level和token-level两种消融实验,发现LLM在ICL中直接依赖的"性能关键token"是模板和停用词token(如"Answer:"),而非人类会关注的内容token(如实际文本),并揭示了LLM通过将内容信息聚合到这些关键token的表示中来间接利用内容。
- Improving Sustainability of Adversarial Examples in Class-Incremental Learning
-
提出SAE框架解决类增量学习(CIL)中对抗样本因域漂移而失效的问题,通过语义校正模块(CLIP+CIL模型联合引导)和过滤增强模块(去除语义混淆样本),使对抗样本在类别数增长9倍后仍保持攻击效果,平均攻击成功率提升31.28%。
- IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization
-
提出 IROTE,一种基于信息瓶颈理论的上下文自我反思优化方法,通过迭代生成并优化紧凑且富有唤起力的文本"自我反思"(self-reflection),无需微调即可稳定地激发 LLM 在多种下游任务中表现出目标人类特质(价值观、道德、人格),一致性超越现有基线。
- Language Models and Logic Programs for Trustworthy Tax Reasoning
-
将税法推理重新定义为语义解析任务,让LLM将法规文本和纳税案例翻译为Prolog逻辑程序,由符号求解器执行计算,通过金标准法规+智能检索案例示例+自一致性检查,在SARA数据集上实现86/100的正确率,并将预计部署成本降至15.78美元/人(低于美国人均报税成本的6%)。
- Learning Spatial Decay for Vision Transformers
-
提出 Spatial Decay Transformer(SDT),首次将数据依赖的空间衰减机制从 1D 序列建模适配到 2D 视觉 Transformer,通过 Context-Aware Gating(CAG)生成动态的、内容相关的 patch 交互衰减强度,在 ImageNet-1K 分类和生成任务上一致超越 RMT 等强基线。
- LoKI: Low-damage Knowledge Implanting of Large Language Models
-
提出LoKI,一种基于Transformer知识存储机制理解的参数高效微调方法,通过知识向量归因(KVA)评估FFN中各知识向量的贡献度,选择低贡献向量进行层均衡的知识植入,在获得强任务性能的同时显著缓解灾难性遗忘。
- LoopLLM: Transferable Energy-Latency Attacks in LLMs via Repetitive Generation
-
提出LoopLLM,一种通过诱导LLM进入重复生成模式来发起能耗延迟攻击的框架,利用重复诱导提示优化和token对齐的集成优化,在12个开源和2个商业LLM上实现超过90%最大输出长度的攻击效果,跨模型迁移性提升约40%。
- ParetoHqD: Fast Offline Multiobjective Alignment of Large Language Models Using Pareto High-Quality Data
-
提出 ParetoHqD,将人类偏好表示为目标空间中的偏好方向(而非线性标量化),通过选取靠近 Pareto 前沿的高质量数据做两阶段 SFT,用仅 42% 的 GPU 时间实现优于 5 个基线的多目标 LLM 对齐效果。
- PERSIST: Persistent Instability in LLM's Personality Measurements
-
PERSIST 框架系统评估 29 个 LLM(1B-685B)在 200 万+响应上的人格测量稳定性,揭示了 CoT 推理增加变异性却降低困惑度的"推理悖论",以及会话历史对大小模型产生相反影响的规模依赖效应,表明当前 LLM 缺乏行为一致性的架构基础。
- Position on LLM-Assisted Peer Review: Addressing Reviewer Gap through Mentoring and Feedback
-
本文作为立场论文,提出将LLM在同行评审中的角色从"自动生成审稿意见"转向"增强人类审稿能力"——通过LLM驱动的导师系统(三阶段培训+认证)和反馈系统(违规检测+证据反馈+可靠性测试)来缩小审稿质量差距。
- ProFuser: Progressive Fusion of Large Language Models
-
提出ProFuser,通过双模式优势评估(训练模式Min-CE + 推理模式Reward Model投票)全面识别各源模型在不同维度的优势,再用渐进式融合策略(先推理模式→后训练模式的easy-to-hard课程)将异构LLM的互补能力整合到单个目标模型中,在知识/推理/安全6个基准上平均提升1.65%。
- PromptMoE: Generalizable Zero-Shot Anomaly Detection via Visually-Guided Prompt Mixing of Experts
-
PromptMoE 将提示学习从单体式(monolithic)范式转变为组合式(compositional)范式,通过视觉引导的混合专家(MoE)机制从可学习的语义原语库中动态组合实例自适应的正常/异常状态提示,在 15 个工业和医学数据集上实现 ZSAD SOTA。
- Rectification Reimagined: A Unified Mamba Model for Image Correction and Rectangling with Prompts
-
从统一畸变矫正视角出发,提出 UniRect 框架,通过 Residual Progressive TPS 处理几何形变 + Residual Mamba Blocks 补偿退化,统一处理肖像校正、广角矩形化、拼接矩形化、旋转校正四种任务,并通过 Sparse MoE 实现 four-in-one 多任务学习,拼接矩形化 PSNR 提升 3.82 dB,旋转校正提升 0.87 dB。
- Scalable and Accurate Graph Reasoning with LLM-Based Multi-Agents
-
提出 GraphAgent-Reasoner(GAR),受分布式图计算理论启发,将图问题分解为以节点为中心的子任务分配给多个 Agent,通过邻居消息传递协作求解,将 LLM 可处理的图规模从 100 个节点扩展到 1000 个,在多项式时间图推理任务上显著超越现有最佳方法。
- Scaling Equitable Reflection Assessment in Education via Large Language Models and Role-Based Feedback Agents
-
提出一个由5个角色化GPT-4o Agent组成的零样本多Agent流水线,对学习者反思文本进行公平的量表评分并生成偏差感知的对话式反馈,在336篇反思上实现MAE=0.467、QWK=0.459的评分一致性和Q(g)=3.967的反馈质量。
- Smart: 基于 GNN 与 LLM 融合的 Dragonfly 系统应用运行时代理模型
-
提出 Smart(Surrogate Model for Predicting Application RunTime),首次将 GNN 和 LLM(Time-LLM)融合用于 Dragonfly 互连网络中的应用迭代运行时预测,在 1,056 节点系统上 MAPE 最低达 1.78%(LAMMPS),推理时间仅 0.515 秒,相比原始仿真实现数量级加速。
- Soft Filtering: Guiding Zero-Shot Composed Image Retrieval with Prescriptive and Proscriptive Prompts
-
提出 SoFT,一个无需训练的即插即用重排序模块,利用多模态 LLM 从参考图像和修改文本中提取"必须包含"(prescriptive)和"必须避免"(proscriptive)双重文本约束,对零样本组合图像检索的候选结果进行软过滤重排序,同时构建了多目标三元组数据集流水线以改善评估。
- STEM: Efficient Relative Capability Evaluation of LLMs through Structured Transitive Evaluation Model
-
提出 STEM 框架,通过识别同架构不同规模模型间的"显著转换样本"(STS)构建轻量级评估子集,实现对未知 LLM 能力的高效相对定位,在 100 样本下达到 100% 定位准确率,远超随机采样和贝叶斯方法。
- TEMPLE: Incentivizing Temporal Understanding of Video LLMs via Progressive Pre-SFT Alignment
-
提出 TEMPLE,通过自动化的视频时间偏好数据生成管线(视频筛选→时间扰动→对比响应)和创新的 Progressive Pre-SFT Alignment 策略(课程学习 + DPO 先于 SFT),用少量自生成 DPO 数据显著提升 Video LLM 的时间推理能力,在 VideoMME、MLVU、Vinoground 等多个基准上一致改进。
- TransMamba: A Sequence-Level Hybrid Transformer-Mamba Language Model
-
提出 TransMamba,一种序列级别的 Transformer-Mamba 混合架构,通过共享 QKV/CBx 参数和 Memory Converter 在不同 token 长度时动态切换 Attention 和 SSM,兼顾长短序列的效率。
- Uncertainty Under the Curve: A Sequence-Level Entropy Area Metric for Reasoning LLMs
-
提出 Entropy Area Score (EAS)——通过单次前向传播积分 token 级预测熵来量化推理 LLM 的不确定性。EAS 无需外部模型或重复采样,与答案熵强相关(Pearson r=0.82),用于训练数据选择时比 Pass Rate 过滤多提升 1.2-2.3% Pass@1,是高效可解释的 LLM 不确定性工具。
- Understanding Syllogistic Reasoning in LLMs from Formal and Natural Language Perspectives
-
系统评估14个LLM在160个三段论上的推理表现,通过双维度ground truth框架(句法有效性+NLU可信度)揭示顶级模型在形式逻辑上接近完美(99.6%)但自然语言可信度判断仅为随机水平(~52%)——与人类推理模式恰好相反;12/14模型存在显著信念偏差,且few-shot提示反而降低形式推理性能。
- Vision Transformers are Circulant Attention Learners
-
发现 ViT 的自注意力内禁学习了 BCCB 模式,据此提出 Circulant Attention,通过 2D FFT 实现 \(O(N\log N)\) 复杂度,在 ImageNet 分类、COCO 检测、ADE20K 分割上一致提升。
- VSPO: Validating Semantic Pitfalls in Ontology via LLM-Based CQ Generation
-
提出 VSPO 框架,通过构造"定义-公理"错位数据集并微调 LLaMA-3.1-8B-Instruct,生成能够验证本体语义陷阱(如 allValuesFrom 误用)的能力问题(CQ),精度和召回率分别超过 GPT-4.1 达 26% 和 28.2%。