跳转至

📐 优化/理论

📹 ICCV2025 · 8 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (1) · 📷 CVPR2026 (10) · 🔬 ICLR2026 (45) · 🤖 AAAI2026 (24) · 🧠 NeurIPS2025 (117) · 🧪 ICML2025 (58)

🔥 高频主题: 联邦学习 ×4

Addressing Representation Collapse in Vector Quantized Models with One Linear Layer

提出SimVQ方法,通过一个可学习的线性变换层对码本向量进行重参数化(\(\bm{C}\bm{W}\)),将码本的不相交优化转化为联合空间优化,从根本上解决VQ模型中的表示崩塌问题,实现接近100%的码本利用率。

Class-Wise Federated Averaging for Efficient Personalization

cwFedAvg 将 FedAvg 从"按客户端聚合"扩展为"按类别聚合",为每个类别创建专属全局模型,再根据各客户端的类别分布加权组合成个性化模型,配合权重分布正则化(WDR)增强类别分布与权重范数的关联,在保持 FedAvg 通信开销的同时显著提升非 IID 场景下的个性化性能。

Cooperative Pseudo Labeling for Unsupervised Federated Classification

FedCoPL 首次将无监督联邦学习扩展到分类任务,通过协作伪标签策略(全局分配伪标签确保类别平衡)和部分 prompt 聚合协议(仅聚合视觉 prompt、保留文本 prompt 本地化)有效应对 CLIP 固有偏差和标签偏移挑战。

Federated Continual Instruction Tuning

首次提出联邦持续指令微调(FCIT)基准,涵盖 2 种场景、4 种设置和 12 个数据集,并设计 DISCO 框架通过动态知识组织(DKO)和子空间选择性激活(SSA)有效解决数据异构性和灾难性遗忘。

Federated Prompt-Tuning with Heterogeneous and Incomplete Multimodal Client Data

提出 FED-PRIME,一个面向多模态数据模态缺失场景的联邦 Prompt-Tuning 框架,通过 inter-client 和 intra-client 两组 prompt 分别捕获跨客户端可对齐的缺失模式和客户端内特有的缺失模式,并通过聚类-对齐机制进行服务端聚合,在多种缺失数据设置下大幅超越现有基线。

Learning Interpretable Queries for Explainable Image Classification with Information Pursuit

在CLIP语义嵌入空间中将信息追踪(Information Pursuit)的查询字典参数化为可学习向量,通过交替优化算法学习任务充分的可解释查询字典,缩小了可解释分类器与黑盒分类器的性能差距。

Memory-Efficient 4-bit Preconditioned Stochastic Optimization

提出基于 Cholesky 分解 + 误差反馈的 4-bit 量化方案,将 Shampoo 优化器的预条件矩阵压缩至 4-bit 精度,在大幅降低 GPU 显存的同时保持与 32-bit Shampoo 接近的训练性能,并给出了光滑与非光滑两种场景下的收敛性证明。

Zeroth-Order Fine-Tuning of LLMs in Random Subspaces

提出 SubZero(random Subspace Zeroth-order),通过逐层低秩扰动在随机子空间中估计梯度,显著降低零阶优化的梯度方差和角度误差,以接近推理的内存开销实现 LLM 的高效微调。