📚 预训练¶
🤖 AAAI2026 · 6 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (5) · 📷 CVPR2026 (10) · 🔬 ICLR2026 (27) · 🧠 NeurIPS2025 (50) · 📹 ICCV2025 (10) · 🧪 ICML2025 (30)
- ELSPR: Evaluator LLM Training Data Self-Purification on Non-Transitive Preferences
-
ELSPR 将 LLM 评估器的成对偏好建模为锦标赛图,通过强连通分量 (SCC) 识别非传递偏好,提出归一化有向图结构熵指标,并基于图重构过滤有问题的训练数据——过滤后的评估器非传递性降低 13.8%、结构熵降低 0.088,且丢弃数据的人类一致性仅 34.4%(vs 保留数据 52.6%)。
- Learning Procedural-aware Video Representations through State-Grounded Hierarchy Unfolding
-
提出 Task-Step-State(TSS)三层语义框架,在传统的任务-步骤层次中引入"状态"作为视觉锚定层,并设计渐进式预训练策略(Task→Step→State→Step→Task)逐步展开 TSS 层次,在 COIN 和 CrossTask 数据集上的任务识别、步骤识别和步骤预测任务上全面超越 SOTA。
- Learning Time in Static Classifiers
-
提出 Support-Exemplar-Query (SEQ) 学习框架,通过损失函数设计(而非架构修改)为标准前馈分类器注入时序推理能力,利用软DTW将预测序列与类别时序原型对齐,在细粒度图像分类和视频异常检测上均取得提升。
- No-Regret Strategy Solving in Imperfect-Information Games via Pre-Trained Embedding
-
提出 Embedding CFR 算法,将不完美信息博弈中的信息集映射到连续低维嵌入空间(而非离散聚类),在相同空间开销下实现更快的可利用性收敛和更高质量的策略求解。
- PrefixGPT: Prefix Adder Optimization by a Generative Pre-trained Transformer
-
提出PrefixGPT,将前缀加法器优化建模为序列生成问题,通过定制的GPT模型预训练学习设计规则后用RL微调生成优化设计,在面积-延迟乘积(ADP)上取得SOTA且对初始化不敏感。
- Uncovering Pretraining Code in LLMs: A Syntax-Aware Attribution Approach
-
提出SynPrune——首个语法感知的代码成员推断攻击方法,通过识别47种Python语法约定并在计算成员推断分数时剪除语法决定的token(仅保留反映作者特征的token),平均AUROC提升15.4%,可有效检测代码LLM的预训练数据归属。