✂️ 语义分割¶
🎞️ ECCV2024 · 56 篇论文解读
📌 同领域跨会议浏览: 💬 ACL2026 (4) · 📷 CVPR2026 (103) · 🔬 ICLR2026 (11) · 🤖 AAAI2026 (31) · 🧠 NeurIPS2025 (48) · 📹 ICCV2025 (78)
🔥 高频主题: 语义分割 ×33 · 目标检测 ×4 · 多模态 ×4 · 少样本学习 ×3 · 扩散模型 ×2
- A Semantic Space is Worth 256 Language Descriptions: Make Stronger Segmentation Models with Descriptive Properties
-
ProLab 用 LLM 生成类别的常识性描述,通过句子嵌入和 K-Means 聚类将其压缩为 256 个可解释的描述性属性,构建属性级多热标签空间替代传统 one-hot 类别标签来监督分割模型,在五个经典基准上一致超越类别级监督且涌现出域外泛化能力。
- A Simple Latent Diffusion Approach for Panoptic Segmentation and Mask Inpainting
-
基于Stable Diffusion构建了一个极简的潜在扩散分割框架LDMSeg,通过浅层自编码器将分割mask压缩到潜空间、再训练图像条件扩散模型来生成全景分割结果,避免了传统方法中的目标检测模块、匈牙利匹配和复杂后处理,并天然支持mask inpainting和多任务扩展。
- ActionVOS: Actions as Prompts for Video Object Segmentation
-
提出ActionVOS——一种以人类动作叙述作为额外语言提示的Referring Video Object Segmentation新设定,通过无参数的动作感知标注模块生成伪标签,并设计动作引导的focal loss来抑制假阳性,在VISOR上将非活跃物体的误分割降低35.6% mIoU,同时在VOST/VSCOS上对状态变化物体的分割提升3.0% mIoU。
- Active Coarse-to-Fine Segmentation of Moveable Parts from Real Images
-
提出首个面向真实室内场景RGB图像中可运动部件实例分割的主动学习框架,通过姿态感知masked attention网络实现由粗到细的分割,仅需人工标注11.45%的图像即可获得全量验证的高质量分割结果,相比最优非AL方法节省60%人工时间。
- AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer
-
提出自适应对数底量化器AdaLog,通过可搜索的对数底替代固定log₂/log√2量化器来处理ViT中post-Softmax和post-GELU激活的幂律分布,并设计快速渐进组合搜索(FPCS)策略高效确定量化超参,在极低比特(3/4-bit)下显著优于现有ViT PTQ方法。
- Attention Decomposition for Cross-Domain Semantic Segmentation
-
本文提出 ADFormer,一种用于跨域语义分割的新型 Transformer 架构,通过将解码器中的交叉注意力分解为域无关和域特定两部分,结合梯度反转对抗学习,有效缩小源域和目标域之间的分布差异,在 GTA→Cityscapes 和 SYNTHIA→Cityscapes 两个基准上以显著更低的复杂度超越了现有无 proposal 方法。
- CoLA: Conditional Dropout and Language-Driven Robust Dual-Modal Salient Object Detection
-
提出 CoLA 框架,通过语言驱动的质量评估(LQA)和条件性 Dropout(CD)两个核心模块,首次在双模态显著性目标检测中同时解决噪声输入和模态缺失两大鲁棒性问题。
- ColorMAE: Exploring Data-Independent Masking Strategies in Masked AutoEncoders
-
提出 ColorMAE,通过对随机噪声施加不同频域滤波器生成具有空间与语义先验的数据无关遮罩模式,在不增加任何参数和计算开销的前提下,显著提升 MAE 的下游任务表现,尤其在语义分割任务上相比随机遮罩提升 2.72 mIoU。
- ControlNet++: Improving Conditional Controls with Efficient Consistency Feedback
-
提出 ControlNet++,通过预训练判别模型提取生成图像的条件并优化像素级循环一致性损失来显式提升可控生成的精度,同时提出高效单步去噪奖励策略避免多步采样的巨大开销。
- ControlNet++: Improving Conditional Controls with Efficient Consistency Feedback
-
提出 ControlNet++,通过像素级循环一致性损失显式优化条件可控生成质量:用预训练判别模型从生成图像中提取条件并与输入条件对齐,并设计高效单步去噪 reward 策略避免多步采样的巨大显存开销,在分割掩码、边缘、深度等多种条件控制下显著提升可控性(如分割 mIoU +11.1%)。
- CoReS: Orchestrating the Dance of Reasoning and Segmentation
-
提出 CoReS(Chains of Reasoning and Segmenting),一种双链结构的多模态思维链框架,通过推理链和分割链的层次化协作,结合 in-context 引导策略,实现对复杂推理文本中目标物体的渐进式精确分割,在 ReasonSeg 数据集上超越 LISA 6.5%。
- CPM: Class-Conditional Prompting Machine for Audio-Visual Segmentation
-
提出 CPM(Class-conditional Prompting Machine),通过结合类无关查询与基于 GMM 采样的类条件查询来增强 Mask2Former 在音视频分割中的二部图匹配稳定性和跨模态注意力效力,同时设计音频条件提示(ACP)、视觉条件提示(VCP)和提示对比学习(PCL)三个辅助任务,在 AVSBench 和 VPO 基准上达到 SOTA。
- Cs2K: Class-Specific and Class-Shared Knowledge Guidance for Incremental Semantic Segmentation
-
提出 Cs2K 框架,从类别特有知识(原型引导伪标签 + 原型引导类别适应)和类别共享知识(权重引导选择性整合)两个方面协同缓解增量语义分割中的灾难性遗忘与新类欠拟合问题。
- Dataset Enhancement with Instance-Level Augmentations
-
提出一种基于预训练扩散模型的实例级数据增强方法,通过在保持原始标注不变的前提下逐个重绘图像中的目标实例,显著提升了显著性目标检测、语义分割和目标检测的性能,同时支持数据匿名化。
- Deep Nets with Subsampling Layers Unwittingly Discard Useful Activations at Test-Time
-
发现深度网络中下采样层在默认前向传播中丢弃了大量有用激活,提出一个搜索+聚合框架在测试时利用这些被丢弃的激活图来提升分类和分割性能,与传统TTA方法正交互补。
- DenseNets Reloaded: Paradigm Shift Beyond ResNets and ViTs
-
重新审视 DenseNet 的密集拼接连接(concatenation shortcut),通过系统性现代化改造(加宽减深、现代化 block、扩大中间维度、更多 transition 层等),提出 RDNet(Revitalized DenseNet),在 ImageNet-1K 上超越 Swin Transformer、ConvNeXt、DeiT-III,证明了拼接连接作为一种被低估的范式具有强大潜力。
- Diffusion Models for Open-Vocabulary Segmentation
-
本文提出 OVDiff,利用预训练的文本到图像扩散模型为任意文本类别生成支持图像集,从中提取多层次原型(类级、实例级、部件级),结合背景原型实现无训练的开放词汇语义分割,在 PASCAL VOC 上超越先前方法 10% 以上。
- EAFormer: Scene Text Segmentation with Edge-Aware Transformers
-
提出边缘感知Transformer(EAFormer),通过文本边缘提取器过滤非文本区域边缘、对称交叉注意力在编码器中融合文本边缘信息,显著提升文字边缘区域的分割精度,并重标注COCO_TS和MLT_S数据集以实现更公平评估。
- Early Preparation Pays Off: New Classifier Pre-tuning for Class Incremental Semantic Segmentation
-
提出NeST(New claSsifier pre-Tuning)方法,在正式训练前通过学习从所有旧分类器到新分类器的线性变换来初始化新分类器权重,并设计基于跨任务类别相似性的变换矩阵初始化策略,在Pascal VOC和ADE20K上显著提升多种CISS方法的性能。
- Efficient and Versatile Robust Fine-Tuning of Zero-shot Models
-
R-Adapter 通过在 CLIP 模型中插入轻量级 adapter 模块并结合三种自集成策略(Adapter Dropping、权重累积、权重缩放重参数化),在仅微调 13% 参数的前提下同时实现了 ID 高精度和 OOD 强鲁棒性,并首次将鲁棒微调扩展到分类之外的跨模态检索和开放词汇分割任务。
- Eliminating Feature Ambiguity for Few-Shot Segmentation
-
提出AENet插件网络,通过挖掘判别性查询前景区域来消除特征歧义,增强交叉注意力中的前景-前景匹配,可即插即用地提升现有少样本分割方法性能(SCCAN 1-shot在PASCAL-5i上+3.0%)。
- Frequency-Spatial Entanglement Learning for Camouflaged Object Detection
-
提出频率-空间纠缠学习(FSEL)框架,通过在频率域和空间域之间进行纠缠学习(entanglement learning),利用全局频率特征弥补空间特征的局部性和敏感性限制,在三个COD基准上超越21个SOTA方法。
- FREST: Feature Restoration for Semantic Segmentation under Multiple Adverse Conditions
-
提出 FREST,一种面向多种恶劣条件(雾、雨、雪、夜间)的源无关域自适应语义分割框架,通过交替学习条件嵌入空间(分离条件信息)和特征恢复(将恶劣条件特征恢复为正常条件),逐步消除恶劣条件对特征的影响,在 ACDC 和 RobotCar 基准上均达到新的 SOTA。
- General and Task-Oriented Video Segmentation
-
GvSeg 提出了一个通用视频分割框架,通过将分割目标解耦为外观、形状和位置三个因素,并根据任务需求(VIS/VSS/VPS/EVS)动态调整这三个因素在查询初始化、匹配和采样中的参与度,在统一架构下实现了四种视频分割任务的SOTA性能。
- GiT: Towards Generalist Vision Transformer through Universal Language Interface
-
提出 GiT 框架,通过通用语言接口将图像描述、目标检测、实例分割、语义分割和视觉定位五大视觉任务统一为自回归序列生成,仅用纯 ViT(无任何任务特定模块)实现多任务联合训练,且任务间互相增强。
- LASS3D: Language-Assisted Semi-Supervised 3D Semantic Segmentation with Progressive Unreliable Data Exploitation
-
本文提出 LASS3D,在 MeanTeacher 半监督 3D 语义分割框架中引入大语言视觉模型(LVM)生成多层级文本描述来增强 3D 特征,并通过渐进式负学习策略有效利用低置信度伪标签点,在室内外数据集上取得显著提升。
- Learning Camouflaged Object Detection from Noisy Pseudo Label
-
提出首个弱半监督伪装目标检测方法 (WSSCOD),仅用 20% 像素级标注 + 80% 框标注即可达到全监督 SOTA 的可比性能,核心贡献是一个自适应噪声校正损失 \(\mathcal{L}_{NC}\),可在早期学习和记忆化两个阶段分别优化。
- Learning from the Web: Language Drives Weakly-Supervised Incremental Learning for Semantic Segmentation
-
首次提出完全使用网络图像(而非精心设计的数据集图像)进行弱监督增量语义分割,通过傅里叶域判别器筛选网络图像 + caption 驱动的 rehearsal 策略保持旧类知识,在 PASCAL VOC 15-5 设定下达到 73.4% mIoU。
- LiFT: A Surprisingly Simple Lightweight Feature Transform for Dense ViT Descriptors
-
提出 LiFT,一种极其简单的轻量级后处理网络(仅 1.2M 参数),通过自监督多尺度重建目标训练,融合冻结 ViT 的粗粒度语义特征与 CNN 提取的细粒度图像特征,以仅增加 5.7% 参数和 22% FLOPs 的代价将 ViT 特征分辨率翻倍,在关键点匹配、检测、分割和目标发现等密集任务上均获得显著性能提升。
- Long-Tail Temporal Action Segmentation with Group-wise Temporal Logit Adjustment
-
首次系统性地解决时序动作分割中的长尾问题,提出 Group-wise Temporal Logit Adjustment (G-TLA) 框架,利用活动标签进行分组分类并结合动作时序先验进行 logit 调整,在大幅提升尾部类别性能的同时不损失头部类别。
- Occlusion-Aware Seamless Segmentation
-
提出 Occlusion-Aware Seamless Segmentation (OASS) 新任务与 UnmaskFormer 框架,同时解决全景图像窄视场解锁、遮挡物体完整分割和针孔-全景跨域适应三大挑战,在自建 BlendPASS 数据集上达到 SOTA。
- OLAF: A Plug-and-Play Framework for Enhanced Multi-object Multi-part Scene Parsing
-
提出即插即用框架 OLAF,通过将前景/边缘掩码作为额外输入通道、引入低层稠密特征提取模块 LDF 和针对性权重适配策略,在不改变基础架构的前提下为多种分割网络(CNN/U-Net/Transformer)带来显著的多物体多部件分割增益,在最具挑战的 Pascal-Parts-201 上超越 SOTA 达 4.0 mIoU。
- OpenPSG: Open-set Panoptic Scene Graph Generation via Large Multimodal Models
-
首次定义开放集全景场景图生成(OpenPSG)任务,利用 BLIP-2 作为多模态关系解码器,结合关系查询 Transformer(RelQ-Former)实现开放集关系预测,在 PSG 数据集 PredCls R@100 达到 79.3%,闭集场景超越先前 SOTA 26.6%。
- OpenPSG: Open-set Panoptic Scene Graph Generation via Large Multimodal Models
-
本文首次提出开放集全景场景图生成任务(OpenPSG),利用大型多模态模型(BLIP-2)以自回归方式预测物体间的开放集关系,通过关系查询Transformer高效提取物体对特征并过滤无关对,在闭集和开放集设置下均取得SOTA。
- Part2Object: Hierarchical Unsupervised 3D Instance Segmentation
-
提出 Part2Object 层次聚类框架,利用自监督特征和3D物体性先验(objectness prior),从零件级过分割逐层合并到物体级实例,生成高质量伪标签用于自训练 Hi-Mask3D,实现无需人工标注的3D实例分割。
- PartSTAD: 2D-to-3D Part Segmentation Task Adaptation
-
PartSTAD 提出了一种 2D-to-3D 部件分割的任务适配方法:通过为 GLIP 的 2D 检测框引入可学习权重预测网络(以 3D mRIoU 为目标优化),并集成 SAM 获取精确前景掩码,在 PartNet-Mobility 上实现了语义分割 mIoU 提升 7.0%p、实例分割 mAP50 提升 5.2%p(相对 PartSLIP)。
- Point-Supervised Panoptic Segmentation via Estimating Pseudo Labels from Learnable Distance
-
本文提出一种基于可学习距离的点监督全景分割方法,用 anchor query 表示每个实例,通过交叉注意力预测像素到实例的距离,并以端到端方式由点标签监督距离学习,结合迭代的查询聚合和增强过程持续优化伪标签质量,取得了点监督全景分割的 SOTA 结果。
- ReMamber: Referring Image Segmentation with Mamba Twister
-
本文首次将 Mamba 架构引入指称图像分割(RIS)任务,提出 Mamba Twister 模块通过通道扫描和空间扫描的"扭转"机制实现高效的视觉-语言特征融合,在 RefCOCO/RefCOCO+/G-Ref 三个基准上取得了超越 Transformer 方法的竞争性结果,同时保持线性计算复杂度。
- Representing Topological Self-Similarity Using Fractal Feature Maps for Accurate Segmentation of Tubular Structures
-
利用分形理论将分形维数(FD)从图像级扩展到像素级,生成分形特征图(FFM)作为深度学习模型的额外输入和损失权重,并设计包含边缘解码器和骨架解码器的多解码器网络(MD-Net),在五个管状结构数据集上显著提升分割性能。
- Rotary Position Embedding for Vision Transformer
-
本文系统研究了将 RoPE(Rotary Position Embedding)从1D语言模型扩展到2D视觉任务的方法,提出 RoPE-Mixed(混合可学习频率)替代传统的 Axial 频率分配,在 ViT 和 Swin Transformer 上实现了显著的分辨率外推性能提升,在 ImageNet 分类、COCO 检测和 ADE20k 分割上均带来一致增益。
- SCLIP: Rethinking Self-Attention for Dense Vision-Language Inference
-
发现 CLIP 的密集预测失败源于自注意力导致的空间位置错位问题,提出 Correlative Self-Attention (CSA) 机制——仅修改最后一层自注意力的计算方式(无需训练),将 CLIP 的零样本语义分割从 14.1% 平均 mIoU 提升至 38.2%,超越所有已有方法。
- SCLIP: Rethinking Self-Attention for Dense Vision-Language Inference
-
发现CLIP在密集预测中失败的根因是自注意力机制导致的空间位置错配(spatial-invariant features),提出Correlative Self-Attention(CSA)机制——仅用一个投影矩阵计算token间相关性作为注意力分数,无需任何训练/额外参数即可将CLIP的零样本语义分割mIoU从14.1%提升至38.2%(8个基准平均),大幅超越现有SOTA的33.9%。
- SegGen: Supercharging Segmentation Models with Text2Mask and Mask2Img Synthesis
-
提出 SegGen 数据生成框架,反转传统"先生图再标注"的流程为"先从文本生成分割掩码,再从掩码生成图像",打破分割数据合成的"鸡生蛋"瓶颈,在 ADE20K 上将 Mask2Former R50 的 mIoU 从 47.2 提升至 49.9(+2.7)。
- Segmentation-Guided Layer-Wise Image Vectorization with Gradient Fills
-
提出分割引导的矢量化框架,通过梯度感知分割子程序引导 Bézier 路径的初始化和优化,首次在保持分层拓扑的逐层矢量化方法中支持径向渐变填充,使矢量图形在更少路径数下达到更高的视觉质量。
- SeiT++: Masked Token Modeling Improves Storage-Efficient Training
-
在 SeiT 的 token 化训练框架上引入掩码 token 建模(MTM)自监督预训练,并设计 TokenAdapt 和 ColorAdapt 两种 token 专用数据增强策略,在仅 1% 存储空间(1.4GB)下将 ImageNet-1k 分类准确率从 74.0% 提升至 77.8%,有效解决了 token 域数据增强的难题。
- Self-supervised Co-salient Object Detection via Feature Correspondences at Multiple Scales
-
提出 SCoSPARC——一个两阶段自监督共显著目标检测模型,通过 patch 级和 region 级 ViT 特征对应关系检测图像组中的共显著物体,在 CoCA 数据集上 F-measure 比无监督 SOTA 高 13.7%,甚至超越多个有监督方法。
- SOS: Segment Object System for Open-World Instance Segmentation With Object Priors
-
提出 SOS 方法,通过用 DINO 自注意力图作为物体先验生成聚焦于物体的 SAM 提示点,从而产出高质量伪标注来训练标准实例分割系统,在 COCO/LVIS/ADE20k 跨类别/跨数据集设置下大幅超越 SOTA,精度提升高达 81.6%。
- SPIN: Hierarchical Segmentation with Subpart Granularity in Natural Images
-
SPIN 构建了首个自然图像子部件(subpart)级层级语义分割数据集 SubPartImageNet——包含 203 个子部件类别和 10.6 万条标注——并提出两个层级一致性评估指标(SpCS / SeCS),在 20+ 现代模型上全面基准测试,揭示了当前模型在子部件层面的严重不足。
- Un-EVIMO: Unsupervised Event-based Independent Motion Segmentation
-
首个无需标注的事件相机独立运动物体(IMO)分割框架,利用光流与几何约束生成伪标签训练分割网络,在 EVIMO 数据集上取得与有监督方法可比的性能。
- UniFS: Universal Few-Shot Instance Perception with Point Representations
-
提出UniFS——首个通用少样本实例感知模型,通过将目标检测、实例分割、姿态估计和目标计数统一为动态点表示学习范式,并引入结构感知点学习(SAPL)损失来捕获点间高阶结构关系,在最小任务假设下达到接近专家模型的性能。
- Unleashing the Power of Prompt-driven Nucleus Instance Segmentation
-
提出 PromptNucSeg 框架,通过训练一个 prompter 自动生成细胞核中心点 prompt,并微调 SAM 进行逐核分割,同时引入相邻核作为 negative prompt 解决重叠核分割问题,无需复杂后处理即在三个 benchmark 上达到 SOTA。
- Unsupervised Moving Object Segmentation with Atmospheric Turbulence
-
本文提出一种无监督方法,通过"检测-生长"(detect-then-grow)策略分割大气湍流视频中的运动目标:先用基于 Sampson 距离的极线几何一致性检查分离真实运动与湍流运动,再从高置信种子像素出发区域生长生成分割掩码,最后用时空一致性损失精细化,在首个真实湍流视频数据集 DOST 上大幅超越现有方法(IoU 提升 60.1%)。
- VISA: Reasoning Video Object Segmentation via Large Language Models
-
提出 ReasonVOS 新任务和 VISA 模型,利用多模态 LLM 的世界知识推理能力实现基于隐式文本查询的视频目标分割与跟踪。
- VISAGE: Video Instance Segmentation with Appearance-Guided Enhancement
-
针对在线视频实例分割(VIS)中现有方法过度依赖位置信息导致的关联错误,提出VISAGE通过从骨干特征中显式提取外观嵌入、结合对比学习和简化tracker来增强实例关联准确性,在YTVIS和OVIS基准上取得SOTA。
- VP-SAM: Taming Segment Anything Model for Video Polyp Segmentation via Disentanglement and Spatio-Temporal Side Network
-
本文提出 VP-SAM,通过语义解耦适配器(SDA)利用傅里叶频谱的幅度信息帮助 SAM 区分低对比度的息肉与背景,同时设计时空侧网络(STSN)为 SAM 注入视频帧间时序信息,在 SUN-SEG、CVC-612 和 CVC-300 等数据集上达到 SOTA。
- You Only Learn One Query: Learning Unified Human Query for Single-Stage Multi-Person Multi-Task Human-Centric Perception
-
提出 HQNet 框架,通过学习统一的 Human Query 表示,在单阶段单模型中同时完成行人检测、实例分割、2D 姿态估计、3D Mesh 恢复、属性识别等多种以人为中心的感知任务,并构建了首个全面的多任务人体感知基准 COCO-UniHuman。