跳转至

🤖 机器人/具身智能

📷 CVPR2026 · 49 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (7) · 🔬 ICLR2026 (47) · 🤖 AAAI2026 (38) · 🧠 NeurIPS2025 (59) · 📹 ICCV2025 (26) · 🧪 ICML2025 (16)

🔥 高频主题: 机器人 ×23 · 多模态 ×12 · 推理 ×9 · 导航 ×5 · Agent ×3

Action–Geometry Prediction with 3D Geometric Prior for Bimanual Manipulation

利用预训练3D几何基础模型π3作为感知骨干,融合3D几何、2D语义和本体感知特征,通过扩散模型联合预测未来动作chunk和未来3D Pointmap,仅使用RGB输入就在RoboTwin双臂基准上全面超越点云方法。

Adaptive Action Chunking at Inference-time for Vision-Language-Action Models

提出自适应动作分块(AAC)策略,利用动作熵作为线索在推理时动态确定最优分块大小,无需额外训练或架构修改,在RoboCasa和LIBERO等基准上持续提升GR00T N1.5和π0.5的任务成功率。

AtomicVLA: Unlocking the Potential of Atomic Skill Learning in Robots

AtomicVLA 提出统一规划-执行框架,通过Think-Act自适应切换生成任务链和原子技能抽象,用技能引导MoE(SG-MoE)构建可扩展的原子技能专家库,在LIBERO-LONG上超π₀ 10%,真实世界持续学习超基线21%且遗忘仅1.3%。

AtomicVLA: Unlocking the Potential of Atomic Skill Learning in Robots

提出AtomicVLA,在π₀基础上构建统一规划-执行框架,通过自适应Think-Act切换生成原子技能抽象,并用技能引导的MoE(SG-MoE)将动作路由到专精expert执行,LIBERO-LONG成功率从85.2%提升至95.2%(+10%),真实Franka长任务+18.3%,持续学习+21%。

BiPreManip: Learning Affordance-Based Bimanual Preparatory Manipulation through Anticipatory Collaboration

提出 BiPreManip 框架,基于视觉可供性表示实现双臂预备操作:先预想主手的目标交互区域,再引导辅助手进行预备动作(如翻转瓶子使瓶盖朝向主手),在仿真和真实环境中大幅优于基线。

Boosting Vision-Language-Action Finetuning with Feasible Action Neighborhood Prior

提出可行动作邻域(FAN)正则化器,将 VLA 模型的输出分布塑造为与物理动作容差匹配的高斯形状,在 SFT 和 RFT 两种微调范式下均显著提升成功率、泛化性和样本效率(RFT 仅需 1/3 训练步数达到 90% 成功率)。

Chain of World: World Model Thinking in Latent Motion (CoWVLA)

提出CoWVLA,统一世界模型VLA和隐动作VLA的优势:通过Latent Motion Extractor将视频分解为结构隐变量和运动隐变量,VLA在隐运动空间做世界模型预测而非重建冗余像素,配合Co-Fine-tuning交替生成关键帧和动作token,LIBERO-LONG达95.2%超越π₀(85.2%),SimplerEnv-WidowX avg 0.560超π₀(0.425)。

CoMo: Learning Continuous Latent Motion from Internet Videos for Scalable Robot Learning

提出 CoMo,通过早期时序差分(Td)和时序对比学习(Tcl)两个机制协同解决连续隐运动学习中的捷径学习问题,从互联网视频中提取精细的连续伪动作标签,使视频数据与机器人动作在统一连续分布下联合训练,显著提升策略性能。

Cross-Domain Demo-to-Code via Neurosymbolic Counterfactual Reasoning

提出 NeSyCR 神经符号反事实推理框架,将视频示教抽象为符号世界模型,通过反事实状态推演检测跨域不兼容并自动修正程序步骤,在跨域 demo-to-code 任务上比最强基线 Statler 提升 31.14% 成功率。

CycleManip: Enabling Cyclic Task Manipulation via Effective Historical Perception and Understanding

CycleManip 首次系统性地解决机器人循环操作任务(如摇瓶子N次),通过成本感知的历史采样策略增强历史感知,配合多任务学习辅助目标提升历史理解,以端到端模仿学习方式实现循环次数可控的操作。

DAWN: Pixel Motion Diffusion is What We Need for Robot Control

提出 DAWN,一个两阶段全扩散的视觉语言动作框架——Motion Director(潜扩散模型)生成稠密像素运动场作为可解释的中间表示,Action Expert(扩散 Transformer 策略)将像素运动转换为可执行机器人动作;在 CALVIN 基准上取得 SOTA(平均长度 4.00),并在真实世界单臂/双臂操控中展现强泛化能力。

DecoVLN: Decoupling Observation, Reasoning, and Correction for Vision-and-Language Navigation

提出 DecoVLN 框架,将 VLN 任务中的观察、推理和纠错三个过程解耦,通过自适应记忆优化机制和基于状态-动作对的纠错微调策略,在仅使用自中心 RGB 输入的条件下实现了 R2R-CE 和 RxR-CE 上的 SOTA 性能。

DeepSketcher: Internalizing Visual Manipulation for Multimodal Reasoning

提出DeepSketcher套件——包含31k高质量代码渲染的图文交错CoT数据集和一个自包含的Embedding Editor模型,使VLM无需外部工具即可在视觉嵌入空间直接生成"视觉思考"进行多模态推理。

Diagnose, Correct, and Learn from Manipulation Failures via Visual Symbols

提出 ViFailback 框架,利用显式视觉符号(箭头、准星等)高效标注真实世界机器人操作失败数据,构建 58,128 条 VQA 对的大规模数据集,并微调得到 ViFailback-8B 模型,在真实机器人实验中结合 VLA 模型实现失败恢复,平均成功率提升 22.2%。

Diagnose, Correct, and Learn from Manipulation Failures via Visual Symbols

提出 ViFailback 框架,利用可视化符号(箭头、准星、标签等)高效标注真实世界机器人操作失败,构建 58,128 个 VQA 对的数据集,并训练 ViFailback-8B VLM 实现失败诊断和视觉+文本纠正指导,集成到 VLA 后实现 22.2% 的任务成功率提升。

Expert Pyramid Tuning: Efficient Parameter Fine-Tuning for Expertise-Driven Task Allocation

针对MoE-LoRA方法中所有expert结构相同(统一rank)导致无法适配不同复杂度任务的问题,提出EPT:通过共享meta-knowledge子空间 + 不同kernel size的反卷积expert构建参数金字塔,配合Adaptive LoRA Pruner和对比学习Task Embedding,在GLUE上以仅0.41M参数/任务达到87.0%平均分,超越所有MoE-LoRA变体。

Expert Pyramid Tuning: Efficient Parameter Fine-Tuning for Expertise-Driven Task Allocation

提出 Expert Pyramid Tuning (EPT),将 CV 中多尺度特征金字塔(FPN)思想引入 MoE-LoRA,通过共享低维元知识子空间 + 不同核尺度的反卷积专家投影 + 对比学习任务嵌入,以仅 0.41M 参数/任务在 GLUE 上达到 87.0% 均分,比 MoE-LoRA 变体参数减少约 50%。

Fast-ThinkAct: Efficient Vision-Language-Action Reasoning via Verbalizable Latent Planning

提出 Fast-ThinkAct,通过将冗长的文本 CoT 推理(~250 token)压缩为 6 个可语言化的连续 latent token,结合 reward-guided preference distillation 和 visual trajectory alignment,实现 89.3% 推理延迟降低(9.3× faster than ThinkAct-7B)同时保持甚至超越 SOTA reasoning VLA 的性能。

FineCog-Nav: Integrating Fine-grained Cognitive Modules for Zero-shot Multimodal UAV Navigation

本文提出 FineCog-Nav,一个受人类认知启发的零样本 UAV 视觉语言导航框架,将导航分解为语言处理、感知、注意力、记忆、想象、推理和决策七个细粒度认知模块,每个模块使用中等规模基础模型驱动,无需训练即可在复杂 3D 环境中完成长程导航。

FORCE: Transferable Visual Jailbreaking Attacks via Feature Over-Reliance CorrEction

通过分析视觉越狱攻击在层特征和频谱域的过度依赖问题,提出FORCE方法纠正非泛化性特征依赖,引导攻击探索更平坦的损失景观,从而显著提升跨模型迁移性。

FORCE: Transferable Visual Jailbreaking Attacks via Feature Over-Reliance CorrEction

分析发现视觉 jailbreak attack 迁移性差的根因是 attack 处于 high-sharpness loss region——源于浅层特征过度依赖 model-specific 表示和高频信息过度影响;提出 FORCE 方法通过 layer-aware regularization 扩展浅层 feasible region + spectral rescaling 抑制高频非语义成分,引导 attack 进入 flatter loss landscape,显著提升跨模型迁移性。

ForceVLA2: Unleashing Hybrid Force-Position Control with Force Awareness for Contact-Rich Manipulation

提出ForceVLA2,首个在VLA框架中统一力感知(force awareness)与混合力-位置控制(hybrid force-position control)的端到端模型:通过Force-based Prompts在VLM中构建跨阶段力感知任务概念,Cross-Scale MoE自适应融合任务语义与实时交互力实现闭环力-位置调节,在5个contact-rich任务上平均成功率66%,超π₀和π₀.5分别48.0%和35.0%。

GeCo-SRT: Geometry-aware Continual Adaptation for Robotic Cross-Task Sim-to-Real Transfer

提出一种基于几何感知的持续适应方法 GeCo-SRT,通过从局部几何特征中提取跨域/跨任务不变知识,在多次 sim-to-real 迁移中实现知识积累,从而高效适应新任务。

GeCo-SRT: Geometry-aware Continual Adaptation for Robotic Cross-Task Sim-to-Real Transfer

GeCo-SRT提出首个持续跨任务Sim-to-Real迁移范式,利用局部几何特征的域不变性和任务不变性,通过Geo-MoE模块提取可复用的几何知识并用Geo-PER防止专家级遗忘,在4个真实机器人任务上平均成功率63.3%(比基线提升52%),且仅需1/6数据即可匹配基线性能。

IGen: Scalable Data Generation for Robot Learning from Open-World Images

IGen 从单张开放世界图像出发,通过3D场景重建→VLM任务规划→SE(3)动作生成→点云合成→帧渲染,自动生成大规模视觉-动作训练数据,仅用生成数据训练的策略即可完成真实世界操作。

Influence Malleability in Linearized Attention: Dual Implications of Non-Convergent NTK Dynamics

通过 NTK 框架证明线性化注意力不会收敛到无限宽度核极限(需要宽度 \(m = \Omega(\kappa^6)\)),并提出"影响可塑性"指标量化其双面效应:注意力比 ReLU 网络高 6–9× 的数据依赖灵活性,既能降低近似误差也增加对抗脆弱性。

Influence Malleability in Linearized Attention: Dual Implications of Non-Convergent NTK Dynamics

本文揭示线性化注意力机制在 NTK 框架下不收敛至无穷宽极限,并提出"影响力可塑性"(influence malleability) 度量,证明注意力的强大能力与对抗脆弱性共享同一来源——偏离核regime的数据依赖核结构。

Language-Grounded Decoupled Action Representation for Robotic Manipulation (LaDA)

提出 LaDA 框架,用自然语言作为语义桥梁将连续 7-DoF 动作解耦为平移/旋转/夹爪三个可解释原语,通过软标签对比学习在共享嵌入空间中对齐跨任务动作表示,仅 0.6B 参数在 LIBERO 上达 93.6% 成功率,超越 1.3B~8.5B 参数的所有基线。

Language-Grounded Decoupled Action Representation for Robotic Manipulation

提出 LaDA 框架,将连续 7-DoF 机器人动作解耦为语言描述的可解释运动基元(平移、旋转、夹爪),通过语义引导的软标签对比学习统一视觉-语言-动作表示空间,实现跨任务泛化。

Learning to See and Act: Task-Aware Virtual View Exploration for Robotic Manipulation

提出 TVVE 框架,通过强化学习驱动的多视角探索策略(MVEP)选择最优虚拟相机视角并在线重渲染观测,同时设计任务感知 MoE 视觉编码器(TaskMoE)解决多任务特征干扰问题,在 RLBench 18 个任务上平均成功率达 86.6%。

ManipArena: Comprehensive Real-world Evaluation of Reasoning-Oriented Generalist Robot Manipulation

ManipArena 提出了一个标准化的真实世界机器人操作评估框架,包含 20 个推理导向任务和 10,812 条专家轨迹,通过绿幕受控环境、系统化多样性设计和分层 OOD 评估,为 VLA 模型和世界模型提供公平、可复现的评测基准。

MergeVLA: Cross-Skill Model Merging Toward a Generalist Vision-Language-Action Agent

首次系统诊断 VLA 模型不可合并的两大根因(LoRA 自私参数冲突 + 动作专家自注意力导致的任务耦合),提出 MergeVLA——通过任务掩码稀疏激活 LoRA、去自注意力动作专家、无训练测试时路由,将多个单技能 VLA 专家合并为一个通用 agent,在 LIBERO 上达 90.2% 成功率,真机 SO101 达 90%。

MergeVLA: Cross-Skill Model Merging Toward a Generalist Vision-Language-Action Agent

MergeVLA 通过诊断 VLA 模型不可合并的两大根因(LoRA 参数冲突 + action expert 自注意力导致的架构不兼容),设计了稀疏激活的 task mask 和去除自注意力的 action expert 架构,实现了多个单任务 VLA 专家的免训练合并,在 LIBERO 上达到 90.2%、真机 SO101 上 90.0% 成功率。

PALM: Progress-Aware Policy Learning via Affordance Reasoning for Long-Horizon Robotic Manipulation

提出 PALM,一个统一的 VLA 框架,通过结构化的细粒度可供性预测(全局/局部/空间/动态四类)作为隐式推理锚点,结合连续子任务进度估计实现无缝任务切换,在 CALVIN ABCD 上平均完成长度达 4.48(超越前 SOTA 12.5%),LIBERO-LONG 成功率 91.8%,真实世界长时域泛化测试中达到基线 2 倍以上。

PanoAffordanceNet: Towards Holistic Affordance Grounding in 360° Indoor Environments

PanoAffordanceNet提出360°室内环境的整体功能可供性定位新任务,通过畸变感知频谱调制器(DASM)校正ERP几何畸变、全球面致密化头(OSDH)从稀疏激活恢复连续功能区域,配合多层级训练目标,在自建的首个全景功能可供性数据集360-AGD上大幅超越现有方法。

PanoAffordanceNet: Towards Holistic Affordance Grounding in 360° Indoor Environments

提出首个面向360°全景室内环境的整体affordance定位框架PanoAffordanceNet,通过畸变感知频谱调制器(DASM)和全球面稠密化头(OSDH)系统性解决ERP几何畸变、稀疏功能区域和语义漂移问题,并构建了首个全景affordance数据集360-AGD。

Pixel-level Scene Understanding in One Token: Visual States Need What-is-Where Composition

本文提出CroBo,一个通过全局-局部重建目标学习视觉状态表示的自监督框架:将全局参考图压缩为单个瓶颈token,用它来重建高度遮蔽(90%)的局部裁剪视图,迫使瓶颈token编码像素级的"what-is-where"场景组成信息,在Franka Kitchen和DMC机器人策略学习benchmark上达到SOTA。

Probabilistic Concept Graph Reasoning for Multimodal Misinformation Detection

本文将多模态虚假信息检测(MMD)重构为基于概念图的结构化概率推理问题,提出PCGR框架,通过MLLM自动发现并验证人类可理解的概念节点,构建层次化概率概念图,实现可解释的虚假信息检测,在三个基准上全面超越13个baseline。

ProFocus: Proactive Perception and Focused Reasoning in Vision-and-Language Navigation

提出 ProFocus,一个 training-free 框架,通过推理引导的主动感知(构建语义地图并迭代生成定向视觉查询)和分支多样化蒙特卡洛树搜索(BD-MCTS,筛选 top-k 高价值路点实现聚焦推理),在 R2R 和 REVERIE 上达到零样本 VLN 的 SOTA。

PULSE: Privileged Knowledge Transfer from Rich to Deployable Sensors for Embodied Multi-Sensory Learning

本文提出 PULSE 框架,通过冻结的特权传感器(如 EDA)教师模型向廉价可部署传感器(如 ECG、BVP、加速度计)学生模型进行知识蒸馏,引入共享-私有嵌入分解和重建防崩塌机制,在不使用 EDA 推理的情况下达到 0.994 AUROC 的压力检测性能,甚至超越使用全部传感器的模型。

QuantVLA: Scale-Calibrated Post-Training Quantization for Vision-Language-Action Models

提出 QuantVLA,首个面向 Vision-Language-Action (VLA) 模型的免训练后量化框架,通过选择性量化布局和两个轻量级标定机制(注意力温度匹配 ATM 和输出头平衡 OHB),在 W4A8 精度下实现约 70% 的内存节省,同时任务成功率超过全精度基线。

RC-NF: Robot-Conditioned Normalizing Flow for Real-Time Anomaly Detection in Robotic Manipulation

提出 Robot-Conditioned Normalizing Flow (RC-NF),通过条件归一化流对机器人状态与物体运动轨迹的联合分布建模,实现 <100ms 实时异常检测,可作为 VLA 模型(如 π₀)的即插即用监控模块,支持任务级重规划和状态级轨迹回滚。

RC-NF: Robot-Conditioned Normalizing Flow for Real-Time Anomaly Detection in Robotic Manipulation

提出RC-NF,一种基于条件归一化流的实时异常检测模型,通过解耦处理机器人状态和物体轨迹特征,仅需正样本无监督训练即可在100ms内检测VLA模型执行中的OOD异常,在LIBERO-Anomaly-10上以约8% AUC和10% AP的优势超越SOTA(包括GPT-5、Gemini 2.5 Pro等VLM基线)。

SaPaVe: Towards Active Perception and Manipulation in Vision-Language-Action Models for Robotics

SaPaVe提出端到端主动操作框架,通过解耦相机动作和操作动作的底层到顶层训练策略,先用20万对语义相机控制数据学习主动感知先验,再联合优化实现主动操作,在真实世界中超越π₀和GR00T N1达31.25%成功率提升。

SaPaVe: Towards Active Perception and Manipulation in Vision-Language-Action Models for Robotics

提出 SaPaVe 端到端框架,通过解耦相机运动与操控动作的两阶段自底向上学习策略,实现语义驱动的主动感知与视角不变的操控执行,在真实世界任务中超越 GR00T N1 和 π₀ 分别 31.25% 和 40%。

STRNet: Visual Navigation with Spatio-Temporal Representation through Dynamic Graph Aggregation

STRNet 提出统一的时空表征框架用于视觉导航,通过图推理模块建模帧内空间拓扑结构,结合混合时间偏移和多分辨率差分卷积建模时序动态,显著提升了目标条件导航的成功率(比 NoMaD 提升 70%)。

Test-time Ego-Exo-centric Adaptation for Action Anticipation via Multi-Label Prototype Growing and Dual-Clue Consistency

首次提出 Test-time Ego-Exo Adaptation for Action Anticipation(TE2A3)任务,设计 DCPGN 网络通过多标签原型增长和双线索(视觉+文本)一致性,在测试时将源视角训练模型在线适配到目标视角进行动作预测,大幅超越现有 TTA 方法。

Towards Open Environments and Instructions: General Vision-Language Navigation via Fast-Slow Interactive Reasoning

针对开放环境下视觉语言导航(GSA-VLN)任务,受人类快慢认知双系统启发,提出 slow4fast-VLN 框架:快推理模块基于端到端策略网络实时导航并积累历史记忆,慢推理模块借助 LLM 反思生成结构化泛化经验,经验通过注意力融合反馈增强快推理网络,实现在未见环境和多样指令下的持续适应,在 GSA-R2R 数据集上全面超越前 SOTA(GR-DUET)。

Towards Training-Free Scene Text Editing

提出TextFlow,一个免训练的场景文字编辑框架,通过在去噪早期阶段使用Flow Manifold Steering(FMS)保持风格一致性、后期阶段使用Attention Boost(AttnBoost)增强文字渲染准确性,在不需要任务特定训练的情况下达到与训练方法可比甚至更优的编辑质量。