跳转至

📐 优化/理论

📷 CVPR2025 · 9 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (1) · 📷 CVPR2026 (10) · 🔬 ICLR2026 (45) · 🤖 AAAI2026 (24) · 🧠 NeurIPS2025 (117) · 📹 ICCV2025 (8)

🔥 高频主题: 联邦学习 ×4 · 对抗鲁棒 ×3

Automatic Joint Structured Pruning and Quantization for Efficient Neural Network Training and Compression

提出 GETA 框架实现自动联合结构化剪枝和量化感知训练:量化感知依赖图(QADG)构建通用剪枝搜索空间 + 部分投影 SGD 保证逐层比特约束 + 可解释的联合学习策略,在 CNN 和 Transformer 上均达到竞争力或领先的压缩性能。

Convex Relaxation for Robust Vanishing Point Estimation in Manhattan World

GlobustVP 首次将凸松弛技术引入曼哈顿世界消失点估计问题,通过将联合估计消失点位置与直线-消失点关联的问题转化为 QCQP 再松弛为 SDP,实现了全局最优且对 70% 外点鲁棒的高效求解器(~50ms/图)。

Federated Learning with Domain Shift Eraser

提出FDSE方法,将每层网络分解为域无关特征提取器(DFE,全局聚合增强共识)和域特异偏移消除器(DSE,个性化聚合保留本地特性),结合BN一致性正则化,在DomainNet上达到76.77%(超Ditto 1.6%),在Office-Caltech10上达到91.58%(超FedBN 4.6%)。

Leveraging Perturbation Robustness to Enhance Out-of-Distribution Detection

发现 OOD 样本的检测得分比 IND 样本更容易被对抗扰动降低,提出 PRO 方法——在推理时用梯度下降搜索 ε-球内的最小 OOD 得分,增强 IND/OOD 可分性,在 CIFAR-10 上 FPR@95 从 44.35% 降至 19.95%。

Mind the Gap: Confidence Discrepancy Can Guide Federated Semi-Supervised Learning

提出 TABASCO,一个两阶段二维样本选择框架解决同时存在标签噪声和长尾分布的联邦半监督学习:用加权 JSD(WJSD)和自适应质心距离(ACD)两个互补指标识别干净样本,GMM 聚类后以半监督方式利用剩余噪声数据,在 CIFAR-10(0.1 不平衡+0.4 噪声)上达 85.53%。

Model Poisoning Attacks to Federated Learning via Multi-Round Consistency

发现现有联邦学习模型投毒攻击因跨轮次方向不一致导致效果自相抵消,提出 PoisonedFL 通过固定随机方向向量 + 动态幅度调节 + 假设检验机制实现多轮一致性攻击,在无需任何真实客户端信息的前提下击穿 8 种 SOTA 防御。

SCOPE: Semantic Coreset with Orthogonal Projection Embeddings for Federated Learning

SCOPE 提出了一种面向联邦学习的语义 coreset 选择框架,利用 VLM(MobileCLIP-S2)零样本提取三种标量指标(表示分数、多样性分数、边界接近度),通过服务器聚合全局共识后指导客户端进行两阶段剪枝(异常过滤+冗余消除),在 128-512× 上行带宽减少和 7.72× 加速的同时保持竞争精度。

Stop Walking in Circles! Bailing Out Early in Projected Gradient Descent

发现 PGD 攻击在 L∞ 球上对鲁棒样本会产生循环行为,通过哈希检测循环实现提前终止(PGD_CD),在保持完全相同鲁棒性评估结果的前提下实现最高 96% 的迭代次数减少。

Towards Stable and Storage-efficient Dataset Distillation: Matching Convexified Trajectory

提出 MCT (Matching Convexified Trajectory) 方法,通过将 SGD 专家轨迹替换为从随机初始化到最优点的凸组合线性轨迹,同时解决了传统 MTT 方法的轨迹不稳定、收敛慢和存储消耗高三大问题。