🎮 强化学习¶
📷 CVPR2026 · 22 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (34) · 🔬 ICLR2026 (142) · 🤖 AAAI2026 (71) · 🧠 NeurIPS2025 (173) · 📹 ICCV2025 (7) · 🧪 ICML2025 (82)
🔥 高频主题: 多模态 ×7 · 强化学习 ×5 · Agent ×4 · 机器人 ×4 · 推理 ×4
- AceTone: Bridging Words and Colors for Conditional Image Grading
-
提出AceTone,首个支持文本和参考图像多模态条件色彩调色的统一框架,通过VQ-VAE将3D-LUT压缩为64个离散token,训练VLM预测LUT token序列,再用GRPO强化学习对齐色彩相似度和美学偏好,在风格迁移和指令调色上LPIPS改善50%。
- Anticipatory Planning for Multimodal AI Agents
-
提出 TraceR1,一个两阶段 RL 框架:第一阶段通过轨迹级奖励优化让智能体学会"向前看几步"的前瞻性规划,第二阶段通过工具执行反馈做 grounded fine-tuning 来提升单步精度,在 7 个 GUI 和工具使用 benchmark 上取得了开源 SOTA。
- AnyDoc: Enhancing Document Generation via Large-Scale HTML/CSS Data Synthesis and Height-Aware Reinforcement Optimization
-
AnyDoc 提出了一个基于统一 HTML/CSS 表示的通用文档生成框架,通过自动化数据合成管线构建 265K 文档数据集 DocHTML,结合 SFT 和高度感知强化学习(HARL)微调多模态大模型,在意图到文档、文档反渲染和元素到文档三个任务上超越 GPT-4o 等基线。
- BRIDGE: Multimodal-to-Text Retrieval via Reinforcement-Learned Query Alignment
-
提出 BRIDGE 系统,通过 FORGE(RL 训练的查询对齐模型)将噪声多模态查询蒸馏为检索优化的纯文本查询,配合 LENS 推理增强检索器,在 MM-BRIGHT 上达到 29.7 nDCG@10,作为插件进一步将 Nomic-Vision 提升到 33.3,超越最佳纯文本检索器。
- CCCaption: Dual-Reward Reinforcement Learning for Complete and Correct Image Captioning
-
提出 CCCaption 双奖励强化学习框架,通过 completeness reward(基于多 MLLM 生成的视觉 query 集)和 correctness reward(基于 caption 分解后的子 query 幻觉检测)联合优化图像描述的完整性和正确性,2B 模型超越 32B 基线。
- Cross-modal Identity Mapping: Minimizing Information Loss in Modality Conversion via Reinforcement Learning
-
提出 Cross-modal Identity Mapping (CIM),通过分析用 caption 检索到的图像的表示一致性(GRC)和与源图像的相关性(QIR)来量化图像描述中的信息损失,将其作为 RL 奖励信号训练 LVLM 生成细粒度且精确的描述,无需额外标注。
- GeoWorld: Geometric World Models
-
GeoWorld 将预测式世界模型的潜在表征从欧氏空间映射到双曲流形上,通过 Hyperbolic JEPA 保持几何结构和层级关系,并提出 Geometric Reinforcement Learning 来优化多步规划,在 CrossTask 和 COIN 上实现了约 3% SR(3步)和 2% SR(4步)的提升。
- GraspLDP: Towards Generalizable Grasping Policy via Latent Diffusion
-
提出 GraspLDP,将预训练抓取检测器的 grasp pose 先验和 graspness map 视觉线索注入潜在扩散策略框架,通过 VAE 编码的动作潜空间引导和自监督重建目标,显著提升抓取精度和泛化能力。
- Lifelong Imitation Learning with Multimodal Latent Replay and Incremental Adjustment
-
提出终身模仿学习框架,通过多模态潜在回放(MLR)在冻结编码器的特征空间中存储和回放紧凑表示,并引入增量特征调整(IFA)机制用角距离约束维持任务间可分性,在LIBERO基准上AUC提升10-17点、遗忘降低最多65%。
- Lifelong Imitation Learning with Multimodal Latent Replay and Incremental Adjustment
-
提出终身模仿学习框架,通过 Multimodal Latent Replay(在冻结编码器的潜空间中存储和回放紧凑多模态特征)和 Incremental Feature Adjustment(基于角距离的自适应间隔约束防止任务间表示漂移),在 LIBERO 基准上实现 AUC 提升 10-17 点、遗忘减少 65%。
- MSRL: Scaling Generative Multimodal Reward Modeling via Multi-Stage Reinforcement Learning
-
提出多阶段强化学习(MSRL)方法,通过先在大规模文本偏好数据上学习奖励推理能力,再逐步迁移到多模态任务,解决多模态奖励模型训练中标注数据稀缺的瓶颈问题,在 VL-RewardBench 上将准确率从 66.6% 提升至 75.9%。
- MSRL: Scaling Generative Multimodal Reward Modeling via Multi-Stage Reinforcement Learning
-
提出MSRL(Multi-Stage Reinforcement Learning),通过多阶段RL扩展生成式多模态奖励建模——先在大规模文本偏好数据(400K)上做RL学习通用奖励推理能力,再经caption-based RL和跨模态知识蒸馏向多模态迁移,最后用少量多模态偏好数据微调适配,无需额外多模态标注即在VL-RewardBench上从66.6%提升到75.9%、GenAI-Bench上从70.2%到75.7%。
- RADAR: Closed-Loop Robotic Data Generation via Semantic Planning and Autonomous Causal Environment Reset
-
提出 RADAR 全自动闭环机器人数据采集框架,通过 VLM 语义规划、GNN 策略执行、VQA 成功评估和 LIFO 因果环境重置四模块协同,仅需 2-5 个人类演示即可在无人干预下持续生成高质量操作数据,在仿真长序列任务上达 90% 成功率。
- RADAR: Closed-Loop Robotic Data Generation via Semantic Planning and Autonomous Causal Environment Reset
-
提出RADAR——一个完全自主的闭环机器人操作数据生成引擎,通过VLM语义规划+GNN策略执行+VQA成功评估+FSM驱动的LIFO因果逆序环境重置四个模块,仅需2-5个人工演示即可持续生成高保真操作数据,在仿真中复杂长horizon任务达到90%成功率。
- ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering
-
提出 ReAG,一个推理增强的多模态 RAG 方法,结合粗细粒度检索与 Critic 过滤模型减少噪声,并通过 GRPO 强化学习训练生成器进行显式推理,在知识密集型 VQA 上达到新 SOTA。
- Reasoning-Driven Anomaly Detection and Localization with Image-Level Supervision
-
提出 ReAL 和 CGRO 两个模块,通过提取 MLLM 自回归推理过程中的异常相关 token 并聚合其视觉注意力来生成像素级异常图,再通过一致性引导的强化学习对齐推理与视觉证据,实现仅凭图像级监督的端到端异常检测、定位与可解释推理。
- Reinforce to Learn, Elect to Reason: A Dual Paradigm for Video Reasoning
-
提出 RLER 双范式框架,训练阶段用 GRPO 配合三种新颖奖励(Frame-sensitive、Think-transparency、Anti-repetition)教模型生成结构化证据,推理阶段用无训练编排器在多候选之间基于证据一致性进行加权选举和自检,在 8 个视频基准上全面超越开源和 RL-based LMM,平均提升 6.3%,仅需约 3.1 个候选。
- Rethinking Camera Choice: An Empirical Study on Fisheye Camera Properties in Robotic Manipulation
-
首次系统性地对腕部鱼眼相机在机器人操作模仿学习中的特性进行实证研究,围绕空间定位、场景泛化和硬件泛化三个核心问题揭示了宽视场角的优势与局限,并提出 Random Scale Augmentation (RSA) 策略解决跨相机迁移中的尺度过拟合问题。
- RoboAgent: Chaining Basic Capabilities for Embodied Task Planning
-
提出 RoboAgent,一种能力驱动的具身任务规划框架,用单个 VLM 同时实现调度器和 5 种基本能力(探索引导、物体定位、场景描述、动作解码、经验总结),通过三阶段训练(SFT + DAgger + 专家引导 RL)在 EB-ALFRED 和 ALFWorld 上达到 SOTA。
- See It, Say It, Sorted: An Iterative Training-Free Framework for Visually-Grounded Multimodal Reasoning in LVLMs
-
提出Evidence-Constrained Reweighting Decoding(ECRD)框架:在LVLM解码时维护动态文本证据池,通过分布协商重加权候选token,不确定时自动调用轻量视觉决策器提取微证据,无需训练即可在多个LVLM上显著减少视觉幻觉、提升推理准确率。
- Seeing is Improving: Visual Feedback for Iterative Text Layout Refinement
-
VFLM 提出一个利用视觉反馈进行迭代优化的布局生成框架,通过结合 OCR 准确率的视觉奖励模型和强化学习训练,使多模态大语言模型能够"看到"渲染结果并反复修正,在文本排版质量上显著超越仅生成代码的方法。
- Specificity-aware Reinforcement Learning for Fine-grained Open-world Classification
-
提出 SpeciaRL——一种特异性感知的强化学习框架,通过基于在线 rollout 最佳预测的动态奖励信号,引导推理型大型多模态模型在开放世界细粒度图像分类中同时提升预测的特异性和正确性。