📐 优化/理论¶
🤖 AAAI2026 · 24 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (1) · 📷 CVPR2026 (10) · 🔬 ICLR2026 (45) · 🧠 NeurIPS2025 (117) · 📹 ICCV2025 (8) · 🧪 ICML2025 (58)
🔥 高频主题: 联邦学习 ×5 · LLM ×4 · 对抗鲁棒 ×3 · 个性化生成 ×2
- A Distributed Asynchronous Generalized Momentum Algorithm Without Delay Bounds
-
提出一种完全异步(totally asynchronous)的广义动量(Generalized Momentum)分布式优化算法,无需假设通信/计算延迟的上界即可保证线性收敛,在 Fashion-MNIST 分类任务上比梯度下降快 71%、比 Heavy Ball 快 41%、比 Nesterov 加速梯度法快 19%。
- A Unified Convergence Analysis for Semi-Decentralized Learning: Sampled-to-Sampled vs. Sampled-to-All Communication
-
本文在统一的收敛分析框架下,首次系统比较了半去中心化联邦学习中两种服务器-设备通信原语(S2S仅返回被采样设备 vs. S2A广播给所有设备),揭示了S2S在高组间异质性下更优、S2A在低异质性下更优的不同regime,并给出了实用的系统配置指南。
- BeeRNA: Tertiary Structure-Based RNA Inverse Folding Using Artificial Bee Colony
-
提出 BeeRNA,将人工蜂群(ABC)优化算法应用于 RNA 三级结构逆折叠问题,通过碱基对距离预筛选 + RMSD 两阶段适应度评估,在短/中长度 RNA(<100 nt)上超越深度学习方法 gRNAde 和 RiboDiffusion。
- Beyond the Mean: Fisher-Orthogonal Projection for Natural Gradient Descent in Large Batch Training
-
提出 Fisher-Orthogonal Projection (FOP),通过在 Fisher 度量下对子批次梯度差做正交投影来补充方差信息,使二阶优化器 KFAC 在超大 batch 训练中保持有效,实现最高 ×7.5 的加速。
- Bridging Synthetic and Real Routing Problems via LLM-Guided Instance Generation and Progressive Adaptation
-
提出 EvoReal 框架,利用 LLM 驱动的进化搜索生成结构上接近真实世界的 VRP 合成实例,再通过两阶段渐进微调策略将预训练神经求解器适配到真实基准,在 TSPLib (1.05% gap) 和 CVRPLib (2.71% gap) 上大幅超越已有神经求解器。
- Co-Layout: LLM-driven Co-optimization for Interior Layout
-
提出 Co-Layout 框架,利用 LLM 从自然语言需求中提取结构化约束,再通过基于网格的整数规划(IP)联合优化房间布局与家具摆放,辅以粗到精求解策略提升效率,显著优于现有两阶段方案。
- Convex Clustering Redefined: Robust Learning with the Median of Means Estimator
-
本文将 Median of Means (MoM) 估计器融入凸聚类框架,提出 COMET 算法,通过随机分箱与中位数聚合实现对噪声和离群点的鲁棒性,同时无需预知簇数 \(k\),理论上证明了弱一致性,实验在多个真实数据集上显著超越 k-means、MoM k-means、凸聚类等六种基线方法。
- Convex Clustering Redefined: Robust Learning with the Median of Means Estimator
-
提出 COMET(Convex Clustering with Median of Means Estimator),将中位数均值(MoM)估计器整合到凸聚类框架中,通过随机分箱、截断距离和 ADAM 优化实现对噪声和异常值的鲁棒聚类,无需预设聚类数量,在理论上证明了弱一致性,在合成和真实数据集上全面超越现有方法。
- Cost-Minimized Label-Flipping Poisoning Attack to LLM Alignment
-
首次从理论上分析了在 RLHF/DPO 对齐过程中,通过翻转偏好标签来引导 LLM 策略走向攻击者目标所需的最小成本,将其形式化为凸优化问题并推导了成本的上下界,进而提出 PCM(Poisoning Cost Minimization)后处理方法,可在保持投毒效果的同时显著减少标签翻转数量。
- Data Heterogeneity and Forgotten Labels in Split Federated Learning
-
系统研究了 Split Federated Learning 中数据异构导致的灾难性遗忘现象(尤其是 server 端处理顺序造成的 intra-round 遗忘),并提出基于 multi-head 的 Hydra 方法,将 part-2 的最后层分组训练再聚合,显著降低标签间性能差距(PG 最高降低 75.4%)。
- ECPv2: Fast, Efficient, and Scalable Global Optimization of Lipschitz Functions
-
提出ECPv2算法,通过三项创新(自适应下界、Worst-\(m\) memory、固定随机投影),将Lipschitz函数全局优化的运行时从\(\Omega(n^2 d)\)降至\(\Omega(n(m+d)\log n)\),同时保持与minimax下界匹配的\(O(n^{-1/d})\) regret收敛速率。
- Efficient and Reliable Hitting-Set Computations for the Implicit Hitting Set Approach
-
针对隐式击中集框架中击中集组件依赖商用IP求解器带来的数值不稳定问题,提出基于伪布尔推理和随机局部搜索的替代方案及混合策略,实现了首个可认证的IHS计算并在1786个基准实例上展示了效率与可靠性的有效权衡。
- FedP²EFT: Federated Learning to Personalize PEFT for Multilingual LLMs
-
提出FedP²EFT,通过联邦学习协作训练一个Personalization Strategy Generator (PSG),为每个客户端自动生成个性化的LoRA rank结构,在多语言LLM微调中大幅超越手工设计的PEFT配置和现有FL个性化方法。
- FedPM: Federated Learning Using Second-order Optimization with Preconditioned Mixing of Local Parameters
-
提出 FedPM(Federated Preconditioned Mixing),一种新型联邦学习方法,通过在服务器端用"预条件混合"替代传统的简单参数平均,解决了现有二阶联邦优化方法中局部预条件器漂移问题,在理论上证明了强凸目标的超线性收敛速率,并在异质数据场景中显著超越现有方法。
- GHOST: Solving the Traveling Salesman Problem on Graphs of Convex Sets
-
提出 GHOST 框架,一种层次化最优搜索算法,用于求解凸集图(GCS)上的旅行商问题。通过结合组合路径搜索与凸轨迹优化,并利用新颖的抽象路径展开算法计算可容许下界指导最佳优先搜索,GHOST 在保证最优性的同时比统一混合整数凸规划基线快数个数量级。
- Instance Generation for Meta-Black-Box Optimization through Latent Space Reverse Engineering
-
提出 LSRE 框架,通过自编码器构建 BBO 问题实例的二维潜在空间,并利用遗传编程从该空间中反向工程出多样化的合成优化问题实例集 Diverse-BBO,显著提升 MetaBBO 方法的泛化性能。
- MOTIF: Multi-strategy Optimization via Turn-based Interactive Framework
-
提出 MOTIF 框架,将求解器设计建模为多策略优化问题,通过基于蒙特卡洛树搜索 (MCTS) 的双 LLM 代理回合制竞争机制,联合优化组合优化求解器中的多个相互依赖的算法组件,在 TSP、CVRP、BPP 等多个组合优化领域中一致超越现有方法。
- On the Learning Dynamics of Two-Layer Linear Networks with Label Noise SGD
-
在二层过参数化线性网络上理论分析 Label Noise SGD 的学习动力学,揭示了两阶段行为——Phase I 中权重范数逐渐缩小使模型从 lazy regime 逃逸到 rich regime,Phase II 中权重与真实插值器对齐并收敛——并将该理论扩展到 SAM 优化器。
- Parametrized Multi-Agent Routing via Deep Attention Models
-
提出Deep FLPO框架,将最大熵原理(MEP)的代数结构与permutation-invariant的encoder-decoder神经网络(SPN)融合,解决设施选址与路径联合优化的NP-hard混合整数问题,实现策略推理100倍加速、与Gurobi精确解匹配且快1500倍。
- Pareto-Grid-Guided Large Language Models for Fast and High-Quality Heuristics Design in Multi-Objective Combinatorial Optimization
-
提出 MPaGE 框架,将 LLM 与 Pareto Front Grid 机制和语义聚类结合,自动为多目标组合优化问题生成兼顾解质量与运行效率的启发式算法,在 Bi-TSP、Tri-TSP、Bi-CVRP、Bi-KP 上 HV 和 IGD 均显著优于 EoH、MEoH 等基线。
- PEOAT: Personalization-Guided Evolutionary Question Assembly for One-Shot Adaptive Testing
-
首次提出"一次性自适应测试 (OAT)"任务,将其建模为组合优化问题,并设计 PEOAT 框架——结合个性化初始化、认知增强进化搜索和多样性保持选择策略,在无交互反馈的条件下为每位考生一次性选出最优题集,大幅超越传统 CAT 方法。
- pFed1BS: 基于单比特随机草图的双向通信压缩个性化联邦学习
-
提出 pFed1BS 框架,通过单比特随机草图实现联邦学习中上下行双向极致通信压缩(降低 99%+),同时引入基于符号的正则化器实现客户端模型个性化,在非 IID 数据场景下同时解决通信瓶颈和数据异质性两大难题。
- SMoFi: Step-wise Momentum Fusion for Split Federated Learning on Heterogeneous Data
-
提出 SMoFi 框架,通过在 Split FL 的 server 端每步同步各 surrogate 模型的 momentum buffer,有效缓解 non-IID 数据导致的梯度分歧,在精度最高提升 7.1%、收敛速度最高加速 10.25 倍。
- Tackling Resource-Constrained and Data-Heterogeneity in Federated Learning with Double-Weight Sparse Pack
-
提出FedCSPACK,一种基于余弦稀疏化参数打包和双权重聚合的个性化联邦学习方法,通过在包级别进行参数选择和共享,同时平衡了数据异质性和客户端资源约束,训练速度提升2-5倍、通信量压缩高达96%,同时模型精度提升3.34%。