跳转至

✂️ 语义分割

🧠 NeurIPS2025 · 48 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (4) · 📷 CVPR2026 (103) · 🔬 ICLR2026 (11) · 🤖 AAAI2026 (31) · 📹 ICCV2025 (78) · 🧪 ICML2025 (22)

🔥 高频主题: 语义分割 ×21 · 扩散模型 ×7 · 对抗鲁棒 ×5 · 推理 ×3 · 自监督学习 ×2

Alligat0R: Pre-Training through Covisibility Segmentation for Relative Camera Pose Regression

用共视性分割(covisibility segmentation)替代 CroCo 的跨视图补全作为双目视觉预训练任务,对每个像素预测"共视/遮挡/视野外"三类标签,在低重叠场景下显著超越 CroCo,RUBIK 基准总体成功率 60.3% 排第一。

ARGenSeg: Image Segmentation with Autoregressive Image Generation Model

提出ARGenSeg——首个利用自回归图像生成范式实现图像分割的统一MLLM框架,让模型直接输出visual tokens并通过VQ-VAE解码为分割mask,无需额外分割头,搭配next-scale prediction并行生成策略实现4×加速,在RefCOCO/+/g上以更少训练数据超越SOTA。

Attention (as Discrete-Time Markov) Chains

将 softmax 归一化后的注意力矩阵重新解读为离散时间 Markov 链(DTMC)的转移概率矩阵,提出多跳注意力(Multi-Bounce)和 TokenRank(稳态分布,类似 PageRank)来捕获间接注意力路径和全局 token 重要性,在 ImageNet 分割上达 94.29% mAP,并增强 Self-Attention Guidance 的图像生成质量。

ConnectomeBench: Can LLMs Proofread the Connectome?

提出 ConnectomeBench,首个评估多模态 LLM 在连接组校对(片段识别、分裂错误修正、合并错误检测)三项关键任务上能力的标准化基准;o4-mini 在分裂修正多选任务达 85%,但合并错误检测仍显著落后于人类专家。

COS3D: Collaborative Open-Vocabulary 3D Segmentation

提出 COS3D——一种协作式 prompt-分割框架,通过构建实例场(instance field)和语言场(language field)组成的协作场,在训练阶段利用实例到语言的特征映射构建语言场,在推理阶段利用语言到实例的自适应 prompt 精炼生成精确分割,在两个主流基准上大幅超越现有方法。

Diffusion-Driven Two-Stage Active Learning for Low-Budget Semantic Segmentation

提出两阶段主动学习流程(覆盖性→不确定性),利用预训练扩散模型的多尺度特征实现极低标注预算下的高效语义分割。

Exploring Structural Degradation in Dense Representations for Self-supervised Learning

发现并系统研究了自监督学习中"稠密退化"(SDD)现象——训练越久分类越好但稠密任务性能反而下降,提出 DSE 度量和基于 DSE 的模型选择/正则化策略,平均提升 mIoU 3.0%。

Fast and Fluent Diffusion Language Models via Convolutional Decoding and Rejective Fine-tuning

通过卷积解码归一化(替代硬半自回归分块)和基于规则的拒绝微调 R2FT,在 128 步推理下实现与 512+ 步相当的扩散语言模型生成质量,达到 DLM 领域 SOTA。

FAST: Foreground-aware Diffusion with Accelerated Sampling Trajectory for Segmentation-oriented Anomaly Synthesis

FAST 把“异常区域要被持续保留下来”这件事做成了显式机制,一边用 AIAS 把离散扩散的多步反演压缩成少量粗到细更新,一边用 FARM 在每一步都重建并回灌异常前景,因此既快又更适合给下游异常分割模型喂训练数据。

FineRS: Fine-grained Reasoning and Segmentation of Small Objects with Reinforcement Learning

提出 FineRS 两阶段 MLLM 强化学习框架(全局语义探索 GSE → 局部感知精化 LPR),通过 locate-informed retrospective reward 耦合两阶段,在自建 FineRS-4k UAV 高分辨率数据集上实现超小目标的推理与分割,gIoU 达 55.1%(超 Seg-Zero† 8.5%),同时支持 VQA(MVQA 83.3%)。

GTPBD: A Fine-Grained Global Terraced Parcel and Boundary Dataset

构建首个全球性细粒度梯田地块与边界数据集GTPBD,包含47,537张高分辨率影像(0.5-0.7m)和超20万个人工标注地块,提供三级标签支持语义分割、边缘检测、地块提取和无监督域适应四项任务,并在20种方法上进行全面基准评测。

HAODiff: Human-Aware One-Step Diffusion via Dual-Prompt Guidance

提出HAODiff,一种人体感知的单步扩散模型,通过三分支双提示引导(DPG)生成自适应正负提示对,结合显式人体运动模糊(HMB)退化管线和分类器自由引导(CFG),在人体图像复原任务上大幅超越现有SOTA方法。

HopaDIFF: Holistic-Partial Aware Fourier Conditioned Diffusion for Referring Human Action Segmentation in Multi-Person Scenarios

首次提出指称人体动作分割(RHAS)任务——通过文本描述定位多人视频中特定个体并做帧级动作分割。构建了包含133部电影、137个动作类别、33小时视频的RHAS133数据集,并提出基于全局-局部感知傅里叶条件扩散的HopaDIFF框架,在多种评估设置下显著超越现有基线。

HumanCrafter: Synergizing Generalizable Human Reconstruction and Semantic 3D Segmentation

提出HumanCrafter——首个统一单图3D人体重建与人体部位语义分割的前馈框架,通过人体几何先验引导的Transformer聚合多视角特征,结合DINOv2自监督语义先验构建3D特征场,在2K2K和THuman2.1上同时超越现有3D重建和分割SOTA。

InstructSAM: A Training-Free Framework for Instruction-Oriented Remote Sensing Object Recognition

定义指令导向目标计数/检测/分割(InstructCDS)新任务,构建EarthInstruct遥感基准(覆盖开放词汇/开放端/开放子类三种设置),提出InstructSAM——无需训练的框架:LVLM解析指令+计数、SAM2生成掩码提议、CLIP计算相似度,通过二进制整数规划(BIP)在计数约束下实现掩码-标签最优匹配,推理时间近乎恒定且优于专用基线。

Interpreting ResNet-based CLIP via Neuron-Attention Decomposition

提出神经元-注意力分解方法解释CLIP-ResNet:将模型输出分解为神经元与注意力池化头的成对贡献路径,发现这些neuron-head对可用单一方向近似、具有稀疏性且捕获子概念,并将其应用于免训练语义分割(PASCAL Context上mIoU 26.2%,超MaskCLIP 15%)和数据集分布偏移监测。

LangHOPS: Language Grounded Hierarchical Open-Vocabulary Part Segmentation

提出LangHOPS,首个基于多模态大语言模型(MLLM)的开放词汇物体-部件实例分割框架,在语言空间中建立object-part层次关系,利用MLLM的知识和推理能力链接多粒度概念,在PartImageNet上以56.9% AP超越SOTA 5.5%,跨数据集设置超4.8%。

Mars-Bench: A Benchmark for Evaluating Foundation Models for Mars Science Tasks

本文提出 Mars-Bench——首个面向火星科学任务的综合基准,涵盖20个数据集(分类/分割/目标检测三大任务类型),系统评估了 ImageNet 预训练模型、地球观测基础模型和视觉语言模型在火星数据上的表现,发现当前通用模型在火星领域仍有明显不足,呼吁开发火星专用基础模型。

Mechanistic Interpretability of RNNs Emulating Hidden Markov Models

训练 vanilla RNN 复现 HMM 的发射统计,然后通过反向工程揭示 RNN 实现离散随机状态转换的机制:噪声驱动的轨道动力学 + "kick 神经元"触发的快速转换,本质是自诱导随机共振(SISR),该动力学基元可组合复用以模拟更复杂的离散潜在结构。

Mechanistic Interpretability of RNNs Emulating Hidden Markov Models

通过训练 RNN 模拟 HMM 的发射统计,然后反向工程揭示 RNN 如何利用噪声驱动的轨道动力学、结构化连接(噪声积分群体 + kick 神经元)和自诱导随机共振机制来实现离散随机状态转换。

MultiHuman-Testbench: Benchmarking Image Generation for Multiple Humans

提出 MultiHuman-Testbench,首个系统性评估多人图像生成的基准,包含 1800 个测试样本配对 5550 张人脸图像,以及基于匈牙利匹配的身份相似度等多维度评估指标,并提出区域隔离和隐式匹配技术提升现有方法性能。

Novel Class Discovery for Point Cloud Segmentation via Joint Learning of Causal Representation and Reasoning

本文首次将因果学习引入3D点云新类发现(3D-NCD),通过结构因果模型(SCM)分析基类中的混杂因子和基-新类间的因果关系,提出因果表示原型学习(通过对抗网络消除混杂因子)和基于图的因果推理(GCN生成伪标签),在SemanticKITTI和SemanticPOSS上取得了SOTA结果。

OmniSegmentor: A Flexible Multi-Modal Learning Framework for Semantic Segmentation

OmniSegmentor 构建了含 5 种视觉模态的大规模 ImageNeXt 数据集(1.2M 样本),提出随机选择补充模态与 RGB 对齐的高效预训练策略,首次实现灵活的多模态预训练-微调流水线,在 6 个多模态语义分割基准上刷新 SOTA。

Panoptic Captioning: An Equivalence Bridge for Image and Text

提出 Panoptic Captioning 新任务追求图像的"最小文本等价"——定义包含实体标签、位置(bbox)、属性、关系和全局状态五个维度的全面结构化描述,通过 PancapEngine 数据引擎和 PancapChain 解耦多阶段方法,13B 模型即超越 InternVL-2.5-78B 和 GPT-4o。

PartNeXt: A Next-Generation Dataset for Fine-Grained and Hierarchical 3D Part Understanding

提出 PartNeXt,一个包含 23,519 个高质量带纹理 3D 模型、跨 50 个类别的细粒度层级部件标注数据集,并建立了类别无关部件分割和 3D 部件问答两个基准测试,揭示了当前方法在细粒度部件理解上的显著不足。

PARTONOMY: Large Multimodal Models with Part-Level Visual Understanding

提出 Partonomy 部件级分割 benchmark(862 部件标签/534 物体标签)和 Plum 模型(用 span 标记替代 [SEG] token + mask 反馈循环),发现 SOTA 分割 LMM 在部件理解上仅 5.9% gIoU,Plum 通过避免分布偏移和利用历史预测显著提升。

Re-coding for Uncertainties: Edge-awareness Semantic Concordance for Resilient Event-RGB Segmentation

提出 Edge-awareness Semantic Concordance(ESC)框架,利用语义边缘作为异质 Event 和 RGB 模态的中间桥梁,通过边缘字典的离散潜空间建模实现跨模态特征对齐和不确定性优化,在极端条件下超越 SOTA 2.55% mIoU。

HCLFuse: Revisiting Generative Infrared and Visible Image Fusion Based on Human Cognitive Laws

HCLFuse 基于信息瓶颈原理和最优传输理论进行模态对齐,设计变分瓶颈编码器(VBE)+ 物理引导条件扩散模型,融合热传导/结构保持/物理一致性三种约束到扩散过程中,在 MSRS 数据集上梯度指标 AG 提升 69.87%,空间频率 SF 提升 39.41%。

Robust Ego-Exo Correspondence with Long-Term Memory

提出LM-EEC,基于SAM 2的自中心-外中心(ego-exo)视频跨视角目标分割框架,通过Memory-View MoE自适应融合记忆特征与跨视角特征,配合双记忆库压缩策略保持长期信息,在EgoExo4D基准上大幅超越现有方法(Ego2Exo IoU 54.98 vs 38.26)。

Robust Egocentric Referring Video Object Segmentation via Dual-Modal Causal Intervention

提出 CERES 框架,通过双模态因果干预(语言后门调整消除数据集统计偏差 + 视觉前门调整利用深度信息构建因果中介变量)来解决第一人称视频指代分割中的语言偏差和视觉混淆问题,在 VISOR/VOST/VSCOS 上取得 SOTA。

RoMA: Scaling up Mamba-based Foundation Models for Remote Sensing

提出RoMA——首个面向遥感领域的Mamba架构自监督自回归预训练框架,通过自适应旋转编码策略和多尺度token预测机制,解决遥感图像的方向多样性和尺度极端变化问题,验证了Mamba在遥感领域遵循数据和参数缩放定律。

SaFiRe: Saccade-Fixation Reiteration with Mamba for Referring Image Segmentation

提出 SaFiRe 框架,模拟人类"扫视-注视"两阶段认知过程,利用 Mamba 的扫描-更新特性实现线性复杂度的多轮细化,有效处理歧义指代表达下的图像分割任务。

SAM-R1: Leveraging SAM for Reward Feedback in Multimodal Segmentation via Reinforcement Learning

SAM-R1 提出了一个端到端的推理分割框架,首次将 SAM 作为强化学习训练回路中的奖励提供者,结合分级IoU精度奖励、非对称裁剪和 token 级损失归一化的改进 GRPO 算法,仅用 3K 训练样本即在 ReasonSeg 零样本设定下超越 Seg-Zero 等方法,gIoU 达 60.2%。

SANSA: Unleashing the Hidden Semantics in SAM2 for Few-Shot Segmentation

SANSA 发现 SAM2 虽然以类别无关方式预训练,但其特征中隐含了丰富的语义结构;通过在冻结的 SAM2 Image Encoder 最后两层插入轻量 AdaptFormer 适配器,将 Memory Attention 机制从视觉相似性匹配重定向为语义相似性匹配,以统一架构实现了 few-shot 分割的 SOTA,同时比竞争方法快 3 倍以上、参数量小 4-5 倍。

Seg-VAR: Image Segmentation with Visual Autoregressive Modeling

Seg-VAR 将图像分割重新定义为条件自回归掩码生成问题,通过引入 seglat(分割掩码的潜在表示)和空间感知颜色映射将分割掩码编码为可由 VAR 模型处理的离散 token,在 COCO、Cityscapes、ADE20K 上的语义/实例/全景分割任务中全面超越 Mask2Former 等判别式方法和 GSS 等生成式方法。

Seg4Diff: Unveiling Open-Vocabulary Segmentation in Text-to-Image Diffusion Transformers

通过系统分析多模态扩散Transformer(MM-DiT)的联合注意力机制,发现特定层("语义定位专家层")天然具备高质量语义分割能力,并提出轻量微调方法MAGNET同时提升分割与生成性能。

Self-supervised Synthetic Pretraining for Inference of Stellar Mass Embedded in Dense Gas

本文提出了一种"合成数据驱动的自监督预训练"范式:先用 Flame 算法生成 100 万张合成分形图像,对 ViT-L/16 编码器进行 DINOv2 自监督预训练,然后将冻结的编码器直接迁移到极其有限的磁流体动力学(MHD)恒星形成模拟数据上,通过 kNN 回归实现恒星质量预测(\(R^2=0.81\)),通过 PCA 投影实现零样本无监督语义分割,性能略优于在相同数据上训练的全监督 ResNet-18 基线。

SRSR: Enhancing Semantic Accuracy in Real-World Image Super-Resolution with Spatially Re-Focused Text-Conditioning

SRSR提出一种无需训练的即插即用框架,通过空间重聚焦交叉注意力(SRCA)和空间定向CFG(STCFG)两个推理时模块,解决扩散超分方法中文本引导导致的语义幻觉问题,在保真度和感知质量上全面超越7个SOTA基线。

STEAD: Robust Provably Secure Linguistic Steganography with Diffusion Language Model

提出STEAD,首个基于扩散语言模型(DLM)的可证安全且鲁棒的语言隐写术方法,利用DLM并行去噪的特性找到"鲁棒位置"进行信息嵌入,结合重复纠错编码和邻域搜索策略,抵御token级别的替换、插入、删除攻击。

STEP: A Unified Spiking Transformer Evaluation Platform for Fair and Reproducible Benchmarking

STEP 是首个统一的脉冲 Transformer (Spiking Transformer) 评估平台,支持分类/分割/检测多任务、多后端(SpikingJelly/BrainCog/BrainPy),通过系统消融揭示了当前脉冲 Transformer 严重依赖卷积前端、注意力贡献有限、时序建模能力不足的关键发现,并提出了考虑位宽稀疏性和内存访问的统一能耗分析框架。

TabRAG: Improving Tabular Document Question Answering for Retrieval Augmented Generation via Structured Representations

提出 TabRAG,一种基于解析的 RAG 框架,通过布局分割将文档分解为细粒度组件,使用视觉语言模型将表格提取为层次化结构表示,并集成自生成上下文学习模块来适配多种表格格式,在表格文档问答上全面优于现有解析技术。

Torch-Uncertainty: A Deep Learning Framework for Uncertainty Quantification

Torch-Uncertainty 是首个统一、可扩展、领域通用且以评估为中心的 PyTorch/Lightning 不确定性量化 (UQ) 框架,集成了 6 大类 UQ 方法、26 种评估指标和 27 个即插即用数据集,覆盖分类、分割、回归等任务,并提供了完整的基准测试结果。

Towards Robust Pseudo-Label Learning in Semantic Segmentation: An Encoding Perspective

提出 ECOCSeg,用纠错输出码(ECOC)替代 one-hot 编码来表示语义类别,将 N 类分类分解为 K 个二分类子任务,配合 bit 级伪标签去噪和定制优化损失,显著提升 UDA 和 SSL 语义分割中伪标签学习的鲁棒性。

Towards Unsupervised Domain Bridging via Image Degradation in Semantic Segmentation

提出 DiDA,通过将图像退化操作形式化为扩散前向过程来构建源域和目标域之间的连续中间域,结合语义偏移补偿机制,作为即插即用模块显著提升现有 UDA 语义分割方法的性能。

UniPixel: Unified Object Referring and Segmentation for Pixel-Level Visual Reasoning

UniPixel 提出了首个端到端统一对象引用 (referring) 和分割 (segmentation) 的大型多模态模型,通过创新的 Object Memory Bank 设计将稀疏视觉提示转化为稠密对象掩码特征并注入推理过程,在 10 个基准上实现 SOTA,还引入了需要同时完成引用、分割和问答的 PixelQA 新任务。

Unveiling the Spatial-Temporal Effective Receptive Fields of Spiking Neural Networks

提出时空有效感受野(ST-ERF)分析框架来诊断 Transformer-based SNN 在视觉长序列建模中的瓶颈——缺乏全局感受野,并据此设计 MLPixer 和 SRB 两种通道混合器来增强 SNN 的全局建模能力。

Vanish into Thin Air: Cross-prompt Universal Adversarial Attacks for SAM2

提出UAP-SAM2——首个针对SAM2的跨提示通用对抗攻击方法,通过双重语义偏移框架(帧内语义混淆+帧间语义不一致)生成一个通用扰动,使SAM2在不同视频、帧和提示下的分割目标"消失无踪"。

Vision Transformers with Self-Distilled Registers

提出PH-Reg(Post Hoc Registers),一种高效的自蒸馏方法,无需标注数据和完整重训练即可为已有预训练ViT添加register token,通过测试时增强去噪教师特征+自蒸馏学生网络,有效消除ViT密集特征中的伪影token,提升分割和深度估计性能。