🔄 自监督/表示学习¶
🔬 ICLR2026 · 15 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (2) · 📷 CVPR2026 (38) · 🤖 AAAI2026 (14) · 🧠 NeurIPS2025 (36) · 📹 ICCV2025 (11) · 🧪 ICML2025 (24)
🔥 高频主题: 自监督学习 ×5
- Difficult Examples Hurt Unsupervised Contrastive Learning: A Theoretical Perspective
-
通过相似度图模型理论分析严格证明"困难样本"(跨类高相似度样本对)会损害无监督对比学习性能——困难样本使泛化误差界严格恶化,提出删除困难样本、调节 margin 和温度缩放三种理论指导的缓解策略,在 TinyImageNet 上带来高达 10.42% 的线性探测准确率提升。这一发现是反直觉的:深度学习中通常"更多数据更好",但对比学习中精心移除困难样本反而有益。
- Enhancing Molecular Property Predictions by Learning from Bond Modelling and Interactions
-
提出 DeMol 双图增强多尺度交互框架,通过并行的原子中心图和键中心图通道以及 Double-Helix Blocks 显式建模原子-原子、原子-键、键-键三类交互,在 PCQM4Mv2、OC20、QM9 等基准上取得 SOTA。
- Fly-CL: A Fly-Inspired Framework for Enhancing Efficient Decorrelation and Reduced Training Time in Pre-trained Model-based Continual Representation Learning
-
受果蝇嗅觉回路启发,提出 Fly-CL 框架,通过稀疏随机投影+top-k操作+流式岭分类三阶段渐进去相关,在预训练模型持续学习中大幅降低训练时间的同时达到SOTA水平。
- Gradient-Sign Masking for Task Vector Transport Across Pre-Trained Models
-
提出 GradFix 方法,利用目标预训练模型上极少量样本计算的梯度符号构建二值掩码,逐坐标过滤源模型的任务向量,仅保留与目标损失景观下降方向一致的分量,在无需任何微调的情况下实现跨预训练模型的任务知识迁移,理论上提供严格的一阶下降保证,在视觉与语言基准上均大幅超越朴素迁移和少样本微调。
- InfoNCE Induces Gaussian Distribution
-
从理论上证明 InfoNCE 损失函数在两种互补机制下会诱导表征趋向高斯分布:经验理想化路线(对齐+球面均匀性→高斯)和正则化路线(消失正则项→各向同性高斯),并在合成数据和 CIFAR-10 上验证。
- Maximizing Asynchronicity in Event-based Neural Networks
-
提出EVA框架,将事件类比为语言token,用基于RWKV-6的线性注意力异步编码器实现逐事件特征更新,结合多表示预测(MRP)+下一表示预测(NRP)的自监督学习获得可泛化特征,首次在异步-同步(A2S)范式中成功完成高难度目标检测任务(Gen1数据集0.477 mAP)。
- Maximizing Incremental Information Entropy for Contrastive Learning
-
提出IE-CL(Incremental-Entropy Contrastive Learning)框架,通过显式优化增强视图间的熵增益(而非仅最大化互信息),将编码器视为信息瓶颈并联合优化可学习变换(生成熵)与编码器正则化器(保留熵),在小batch设置下一致提升CIFAR-10/100、STL-10和ImageNet上的对比学习性能,且核心模块可即插即用集成到现有框架。
- No Other Representation Component Is Needed: Diffusion Transformers Can Provide Representation Guidance by Themselves
-
提出 Self-Representation Alignment (SRA),发现扩散 Transformer 内部表征沿"层数增加 + 噪声降低"两个维度呈现从差到好的判别质量梯度,据此将学生网络早层高噪声表征对齐到 EMA 教师晚层低噪声表征,完全不需要任何外部表征组件(DINOv2/CLIP/MAE),即可在 DiT 和 SiT 上大幅加速收敛并提升生成质量(SiT-XL/2 在 800 epoch 达到 FID 1.58,可比依赖 DINOv2 的 REPA)。
- PonderLM: Pretraining Language Models to Ponder in Continuous Space
-
提出 PonderLM,在预训练阶段引入"沉思"机制——将预测概率分布加权求和为连续嵌入后反复前向传播,无需标注数据或强化学习,使 2.8B 模型在 9 个下游任务上超越 6.9B 模型。
- Regularized Latent Dynamics Prediction is a Strong Baseline for Behavioral Foundation Models
-
提出 Regularized Latent Dynamics Prediction (RLDP),通过在自监督的潜空间下一状态预测目标上添加简单的正交正则化来维持特征多样性,在零样本 RL 中匹配甚至超越复杂的 SOTA 表示学习方法,特别是在低覆盖率场景下优势显著。
- SNAP-UQ: Self-supervised Next-Activation Prediction for Single-Pass Uncertainty
-
SNAP-UQ 提出一种面向 TinyML 场景的单次前向传播不确定性估计方法:在骨干网络的选定层附加微型 int8 预测头,用自监督方式预测下一层的激活统计量,将实际激活与预测之间的偏差("surprisal")聚合为不确定性分数,无需额外前向传播、时序缓冲或集成,仅增加几十 KB 闪存即可在微控制器上实现可靠的分布偏移检测和故障检测。
- Soft Equivariance Regularization for Invariant Self-Supervised Learning
-
提出 SER(Soft Equivariance Regularization),通过在 ViT 中间层施加软等变正则化、在最终层保持不变性目标的层解耦设计,在不引入额外模块的情况下,为不变性 SSL 方法(MoCo-v3, DINO, Barlow Twins)带来一致的分类精度和鲁棒性提升。
- Spectrum Tuning: Post-Training for Distributional Coverage and In-Context Steerability
-
揭示RLHF/DPO等后训练会损害模型的上下文可操控性(in-context steerability)、输出覆盖率和分布对齐,提出Spectrum Suite评测框架和Spectrum Tuning方法,首次在后训练阶段改善分布对齐能力。
- Temporal Slowness in Central Vision Drives Semantic Object Learning
-
通过模拟人类中央视觉(注视点裁剪)和时间慢性原则(时间对比学习),在 Ego4D 数据上训练 SSL 模型,发现两者组合能有效提升语义对象表征——中央视觉强化前景提取,时间慢性在注视凝视期间蒸馏语义信息。
- Why Prototypes Collapse: Diagnosing and Preventing Partial Collapse in Prototypical Self-Supervised Learning
-
诊断出原型自监督学习中部分原型坍缩的根因是编码器与原型的联合优化导致的快捷学习,提出全解耦训练策略——用在线 GMM 独立估计原型——彻底消除坍缩并提升下游性能。