🤖 机器人/具身智能¶
📹 ICCV2025 · 26 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (7) · 📷 CVPR2026 (49) · 🔬 ICLR2026 (47) · 🤖 AAAI2026 (38) · 🧠 NeurIPS2025 (59) · 🧪 ICML2025 (16)
🔥 高频主题: 机器人 ×8 · 多模态 ×3 · 导航 ×3 · 对齐/RLHF ×2 · 自监督学习 ×2
- Adaptive Articulated Object Manipulation On The Fly with Foundation Model Reasoning and Part Grounding
-
本文提出 AdaRPG 框架,利用基础视觉-语言模型对铰接物体进行零件级分割和可操作性推理,并借助 GPT-4o 生成高层控制代码以自适应调度原子操作技能,在仿真和真实环境中实现了跨类别零样本泛化操作。
- AnyBimanual: Transferring Unimanual Policy for General Bimanual Manipulation
-
提出 AnyBimanual,一个即插即用的框架,通过技能管理器和视觉对齐器将预训练的单臂操控策略迁移到通用双臂操控场景,在仅有少量双臂示范的情况下实现显著的多任务泛化能力。
- Beyond Losses Reweighting: Empowering Multi-Task Learning via the Generalization Perspective
-
从泛化角度出发,将锐度感知最小化(SAM)引入多任务学习,通过分解每个任务的 SAM 梯度为"低损失方向"和"平坦方向"并分别聚合,减少梯度冲突并引导模型进入跨任务共同平坦低损失区域。
- Bridging Domain Generalization to Multimodal Domain Generalization via Unified Representations
-
提出URMMDG框架,通过监督对比学习构建跨模态统一表示空间,并利用互信息最小化解耦类别通用信息与模态/域特定信息,将传统单模态域泛化方法(Mixup、JiGen、IBN-Net)有效迁移到多模态域泛化场景,在EPIC-Kitchens和HAC基准上取得SOTA。
- Certifiably Optimal Anisotropic Rotation Averaging
-
提出了一种新的SDP松弛方法,通过强制解落在SO(3)的凸包conv(SO(3))内,首次实现了各向异性代价下的可证明全局最优旋转平均,解决了传统O(3)松弛在各向异性场景下完全失效的问题。
- CombatVLA: An Efficient Vision-Language-Action Model for Combat Tasks in 3D Action Role-Playing Games
-
提出CombatVLA,一个针对3D动作角色扮演游戏战斗任务的高效3B参数VLA模型,通过Action-of-Thought数据格式和截断推理策略,实现比现有VLM游戏框架快50倍的推理速度,且战斗成功率超越人类玩家。
- COSMO: Combination of Selective Memorization for Low-cost Vision-and-Language Navigation
-
提出 COSMO,一种结合选择性记忆的低成本 VLN 架构,通过两个定制化的选择性状态空间模块——Round Selective Scan(RSS,单轮扫描捕获全局上下文)和 Cross-modal Selective State Space Module(CS3,双流跨模态交互)——替代 Transformer 中的高成本注意力机制,以仅 15.5% 参数和 9.3% FLOPs 实现超越基线 DUET 的导航性能。
- DexVLG: Dexterous Vision-Language-Grasp Model at Scale
-
提出DexVLG——首个大规模视觉-语言-灵巧抓取模型,构建了包含174K物体、1.7亿抓取姿态的DexGraspNet 3.0数据集(带部件级语义标注),结合VLM和Flow Matching姿态预测头,在仿真中实现76%+零样本执行成功率,并在真实世界中完成语义对齐的灵巧抓取。
- Embodied Representation Alignment with Mirror Neurons
-
本文受镜像神经元启发,通过对比学习将动作理解(观察他人行为)和具身执行(自主执行动作)的中间表征对齐到共享潜在空间,发现两类模型的表征存在自发对齐现象且与任务成功率相关,显式对齐后在动作识别(+3.3%)和机器人操作(+3.5%)上均获提升。
- EvolvingGrasp: Evolutionary Grasp Generation via Efficient Preference Alignment
-
提出 EvolvingGrasp,通过 Handpose-wise Preference Optimization (HPO) 和 Physics-Aware Consistency Model (PCM) 实现灵巧抓取姿态的高效进化式生成与人类偏好对齐,在四个基准数据集上取得 SOTA,并实现 30 倍加速。
- GUIOdyssey: A Comprehensive Dataset for Cross-App GUI Navigation on Mobile Devices
-
提出 GUIOdyssey,首个面向移动端跨应用 GUI 导航的综合数据集(8334 episodes、212 apps、1357 app 组合),以及 OdysseyAgent——配备历史重采样模块的多模态导航智能体,在平衡性能与推理效率的同时显著提升跨应用任务表现。
- iManip: Skill-Incremental Learning for Robotic Manipulation
-
提出 iManip 框架,通过时序回放策略和可扩展 PerceiverIO 架构,使机器人能够在不重新训练的情况下持续学习新的操作技能,同时缓解对已学技能的灾难性遗忘,在 RLBench 上比传统增量基线平均提升 9.4%。
- Interaction-Merged Motion Planning: Effectively Leveraging Diverse Motion Datasets for Robust Planning
-
提出 IMMP(Interaction-Merged Motion Planning),通过两阶段策略——交互保持预合并(构建多指标检查点池)和交互迁移合并(按交互模块分组的任务向量加权合并)——将来自不同轨迹数据集的智能体行为和交互知识迁移到目标域,有效提升运动规划的跨域适应性。
- TesserAct: Learning 4D Embodied World Models
-
提出 TesserAct——一种 4D 具身世界模型,通过训练视频生成模型联合预测 RGB、深度和法线视频,再转换为高质量 4D 场景,实现空间-时间一致的 3D 世界动态模拟和机器人动作规划。
- Moto: Latent Motion Token as the Bridging Language for Learning Robot Manipulation from Videos
-
提出 Moto 框架,通过无监督学习的潜在运动 Token(Latent Motion Token)将视频帧间的视觉运动编码为离散序列,利用 GPT 式自回归预训练学习运动先验,再通过 co-fine-tuning 策略将学到的运动知识迁移到真实机器人操作,在 SIMPLER 和 CALVIN 基准上取得与 55B 参数大模型匹敌的性能(仅 98M 参数)。
- NavMorph: A Self-Evolving World Model for Vision-and-Language Navigation in Continuous Environments
-
提出 NavMorph,一种基于 RSSM 的自进化世界模型,通过 World-aware Navigator 和 Foresight Action Planner 在隐空间建模连续环境动态,并引入上下文进化记忆(CEM)实现在线测试时的快速适应。
- PacGDC: Label-Efficient Generalizable Depth Completion with Projection Ambiguity and Consistency
-
提出 PacGDC,利用 2D 到 3D 投影中固有的形状歧义和位置歧义来合成大量伪几何数据(通过多个深度基础模型作为尺度操纵器),以最小的标注代价实现可泛化的深度补全,在零样本和少样本设置中均达到 SOTA。
- PASG: A Closed-Loop Framework for Automated Geometric Primitive Extraction and Semantic Anchoring in Robotic Manipulation
-
提出 PASG(Primitive-Aware Semantic Grounding),一个闭环框架,通过自动化几何基元提取(关键点、功能轴、主轴)和 VLM 驱动的语义锚定,将低层几何特征与高层任务语义动态耦合,在机器人操作任务中实现了接近人工标注的性能,并构建了 Robocasa-PA 基准和微调模型 Qwen2.5VL-PA。
- Rep-MTL: Unleashing the Power of Representation-Level Task Saliency for Multi-Task Learning
-
提出 Rep-MTL,一种基于表示空间任务显著性(task saliency)的多任务优化方法,通过熵正则化保留任务特定学习模式(TSR)和样本级跨任务对比对齐(CSA)来缓解负迁移并显式促进任务互补性,无需修改优化器或网络架构。
- Resolving Token-Space Gradient Conflicts: Token Space Manipulation for Transformer-Based Multi-Task Learning
-
提出 DTME-MTL 框架,通过在 token 空间中识别和分类梯度冲突(值域空间冲突 vs 零空间冲突),分别采用 Token Modulation(仿射变换)和 Token Expansion(添加任务特定token)来缓解 Transformer 多任务学习中的负迁移问题,以极低参数开销实现一致性能提升。
- Selective Contrastive Learning for Weakly Supervised Affordance Grounding
-
提出选择性对比学习方法用于弱监督可供性定位,通过原型级对比学习和像素级对比学习,在目标和部件两个粒度上自适应学习可供性相关线索,有效避免模型关注与动作无关的显著特征,在 AGD20K 和 HICO-IIF 上全面超越了使用更强基础模型(GPT-4、LLAVA 等)的竞争方法。
- Self-supervised Learning of Hybrid Part-aware 3D Representations of 2D Gaussians and Superquadrics
-
提出 PartGS,一个自监督的部件感知3D重建框架,将2D Gaussian Splatting与超二次曲面混合耦合,通过参数共享和多种正则化实现同时高质量几何分解和纹理重建,在DTU、ShapeNet和真实场景上在重建精度上比SOTA提升75.9%,PSNR提升16.13dB。
- SITE: towards Spatial Intelligence Thorough Evaluation
-
本文提出 SITE,一个基于认知科学三重分类体系的空间智能综合基准,涵盖 8,068 个多选 VQA 任务(覆盖 31 个数据集、图像+视频),评估结果显示当前最强 VLM(GPT-4o)在整体空间推理上仍落后人类专家约 32%,且 VLM 的空间智能与机器人操控任务的成功率呈高度正相关(Pearson \(r=0.902\))。
- TransiT: Transient Transformer for Non-line-of-sight Videography
-
设计了 TransiT 架构,通过瞬态信号压缩、帧间特征融合和时空 Transformer,实现从稀疏快速扫描(16×16、0.4ms/点)的 NLOS 瞬态信号实时重建 64×64 分辨率的隐藏场景视频(10 FPS),并提出基于 MMD 的迁移学习方法弥合合成与真实数据的分布差距。
- UnZipLoRA: Separating Content and Style from a Single Image
-
提出 UnZipLoRA 方法,从单张图像中同时训练两个解耦且兼容的 LoRA(内容 LoRA 和风格 LoRA),通过 prompt 分离、列分离和块分离三种策略实现内容与风格的有效解耦,支持独立操控和自由重组,用户偏好率全面超越 DreamBooth-LoRA、Inspiration Tree 和 B-LoRA。
- Weakly-Supervised Learning of Dense Functional Correspondences
-
定义了"稠密功能对应"(Dense Functional Correspondence)任务——基于物体功能(如"倒水")在不同类别物体之间建立像素级稠密对应,并提出一种弱监督学习框架,通过 VLM 伪标注功能部件 + 多视角对比学习来蒸馏功能和结构知识到新模型中。