📚 预训练¶
🎞️ ECCV2024 · 11 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (5) · 📷 CVPR2026 (10) · 🔬 ICLR2026 (27) · 🤖 AAAI2026 (6) · 🧠 NeurIPS2025 (50) · 📹 ICCV2025 (10)
🔥 高频主题: 少样本学习 ×2
- Cross-Domain Learning for Video Anomaly Detection with Limited Supervision
-
提出弱监督跨域学习(CDL)框架,通过不确定性驱动的伪标签机制将无标注外部视频整合到训练中,显著提升视频异常检测的跨域泛化能力。
- DragAPart: Learning a Part-Level Motion Prior for Articulated Objects
-
DragAPart 提出了一种以拖拽为交互接口的图像生成器,能够响应部件级别的交互(如开关抽屉/门),而非仅仅移动整个物体。通过新的合成数据集 Drag-a-Move、多分辨率拖拽编码和域随机化策略,模型在仅用合成数据训练的情况下能良好泛化到真实图像和未见类别。
- DreamLIP: Language-Image Pre-training with Long Captions
-
通过 MLLM 为 30M 图像生成长文本描述,提出动态子描述采样的多正样本对比学习和子描述特定分组损失,实现细粒度视觉-语言对齐,仅用 30M 数据在检索和语义分割上达到甚至超越 CLIP 400M 的性能。
- Formula-Supervised Visual-Geometric Pre-training (FSVGP)
-
提出FSVGP,利用分形几何的数学公式自动生成对齐的合成图像和点云,通过公式监督一致性标签在统一Transformer上实现跨模态视觉-几何预训练,在图像和3D物体的分类、检测、分割六项任务上均超越单模态FDSL方法。
- I Can't Believe It's Not Scene Flow!
-
揭示现有场景流方法在行人等小目标上的灾难性失败被现有评估指标所掩盖,提出类别感知且速度归一化的Bucket Normalized EPE评估协议,以及一个简单但SOTA的TrackFlow基线(检测器+跟踪器生成场景流),在行人运动描述上实现1.5倍提升。
- Learning to Obstruct Few-Shot Image Classification over Restricted Classes
-
提出 Learning to Obstruct (LTO) 算法,通过类似 MAML 的元学习方式修改预训练 backbone 参数,使其成为特定受限类别的"差初始化",从而阻碍少样本分类方法在受限类上的微调效果,同时保持其他类别的正常性能。
- Plan, Posture and Go: Towards Open-Vocabulary Text-to-Motion Generation
-
本文提出 PRO-Motion 分治框架,将文本到动作生成分解为三个阶段:LLM 驱动的动作规划(Plan)、基于脚本的姿态扩散生成(Posture)、以及全身平移旋转估计(Go),通过降低各阶段的复杂度实现了开放词汇的高质量动作生成。
- POA: Pre-training Once for Models of All Sizes
-
POA 提出在自监督自蒸馏框架中引入弹性学生分支,通过参数共享和随机子网络采样,一次预训练即可同时产出上百个不同大小的预训练模型(如从 ViT-L 直接提取 ViT-S/B),各子网络在 k-NN、线性探测和下游任务上均达到 SOTA 水平。
- PreLAR: World Model Pre-training with Learnable Action Representation
-
本文提出PreLAR,在无动作标签的视频上进行世界模型预训练时,通过从相邻帧编码隐式动作表示并设计动作-状态一致性损失来弥合无动作预训练与有动作微调之间的差距,显著提升了下游视觉控制任务的样本效率。
- Prompting Language-Informed Distribution for Compositional Zero-Shot Learning
-
本文提出 PLID 方法,利用 LLM 生成的句子级类别描述构建语言知识驱动的高斯分布,配合视觉-语言原语分解和随机 logit 融合,在组合零样本学习(CZSL)任务上取得 SOTA。
- Scaling Backwards: Minimal Synthetic Pre-training?
-
提出 1p-frac——仅用单个分形图像的微小扰动即可实现与 ImageNet-1k 级别可比的预训练效果,挑战了"预训练需要大规模数据集"的常规认知,揭示预训练本质可能更接近权重初始化而非视觉概念学习。