跳转至

EReCu: Pseudo-label Evolution Fusion and Refinement with Multi-Cue Learning for Unsupervised Camouflage Detection

会议: CVPR 2026
arXiv: 2603.11521
代码: GitHub
领域: 无监督伪装目标检测 / 图像分割
关键词: unsupervised camouflaged object detection, pseudo-label evolution, multi-cue perception, teacher-student, spectral attention fusion

一句话总结

提出EReCu统一框架,在DINO师生架构上通过多线索原生感知(MNP)提取纹理+语义先验引导伪标签进化融合(PEF),结合局部伪标签精修(LPR)恢复边界细节,首次统一伪标签引导和特征学习两大UCOD范式,在4个COD数据集上全面SOTA。

研究背景与动机

领域现状:伪装目标检测(COD)因目标与背景高度相似而极具挑战。全监督方法依赖昂贵的像素级标注,限制数据集规模和生态多样性。无监督COD(UCOD)目前有两种范式:伪标签引导和特征学习。

现有痛点

  1. 伪标签引导范式(如UCOS-DA、UCOD-DPL)过度依赖高维嵌入而忽视原生图像线索,导致边界溢出和语义漂移
  2. 特征学习范式(如SdalsNet、EASE)缺乏显式伪标签监督,产生模糊边界和细节丢失
  3. 两种范式各有致命缺陷且尚未被统一——语义可靠性和纹理保真度被孤立优化

核心矛盾:伪标签引导解决"在哪里"但边界不准,特征学习解决"长什么样"但定位模糊——两者互补但现有方法无法同时利用。

本文目标 构建一个让伪标签可靠性和特征保真度通过互反馈环路协同进化的统一UCOD框架。

切入角度:从原始图像中提取多线索原生感知(纹理+语义),同时约束伪标签的语义进化和局部细节精修。

核心 idea:用原生图像线索同时驱动伪标签的全局进化和局部精修,实现语义-感知协同进化。

方法详解

整体框架

基于DINO的师生架构。Teacher通过EMA(动量0.99)更新,Student迭代学习精化mask。输入图像 → MNP从原始图像提取多线索特征 \(F_{\text{MNP}}\) 和质量度量 \(S_{\text{mc}}\) → PEF利用多线索引导全局伪标签进化(EPL做师生交互去噪 + STAF做多层注意力谱融合)→ LPR从teacher注意力头中选择高置信区域生成局部伪标签修复细节 → 输出分割mask。MNP为PEF和LPR同时提供约束信号。

关键设计

  1. 多线索原生感知(MNP)

    • 功能:从原始图像中提取低层纹理和中层语义特征,构建多线索质量度量
    • 核心思路:LBP + DoG提取纹理特征 \(F_{\text{text}}\),冻结ResNet-18提取语义特征 \(F_{\text{sem}}\),拼接得 \(F_{\text{MNP}} = \mathcal{C}(F_{\text{text}}, F_{\text{sem}})\)。将图像按mask分为内部 \(R_i\)、边界 \(R_s\)、外部 \(R_o\) 三区域,计算三组修正余弦相似度(随机 \(K \times K\) patch采样 \(N\) 轮):\(S_{\text{mc}} = (D_{\text{io}} + D_{\text{is}} + S_{\text{so}}) / 3\),损失 \(\mathcal{L}_{\text{MNP}} = 1 - S_{\text{mc}}\)
    • 设计动机:即使伪装高度相似,原始图像中仍有细微但可区分的纹理变化;随机patch采样处理区域形状不规则的问题
  2. 伪标签进化融合(PEF = EPL + STAF)

    • EPL(进化伪标签学习):Student浅层特征用深度可分离卷积(DSC)增强空间细节得 \(M_s^{\text{dsc}}\),Student/Teacher分支各通过语义池化得伪mask \(M_s^p / M_t^p\)。迭代优化:\(M_s^{\text{dsc}(r+1)} = \arg\min[\mathcal{L}_D(M_s^{\text{dsc}}, M_s^p) + \mathcal{L}_D(M_s^{\text{dsc}}, M_t^p) + \mathcal{L}_{\text{MNP}}]\),Dice损失 + 多线索约束联合驱动进化
    • STAF(谱张量注意力融合):Student三层级(1/3, 2/3, 最终层)注意力图堆为三阶张量 \(\mathcal{T}_s \in \mathbb{R}^{3 \times C \times HW}\),Tucker分解 + 截断SVD提取前 \(t\) 主要谱成分,低秩近似 \(A_s^{\text{fu}} = P_t \Sigma_t Q_t^\top\),再线性投影 + Sigmoid 得融合预测 \(M_s^{\text{fu}}\)。复杂度 \(\mathcal{O}(r^2 d)\)
    • 设计动机:EPL让浅层细节与深层语义交互去噪,STAF在抑制注意力噪声的同时保留语义和结构信息
  3. 局部伪标签精修(LPR = TAS + LPG)

    • TAS(目标感知注意力选择):计算Teacher每个注意力头的聚焦熵 \(E_k\),筛选 \(E_k < \tau_e\)\(S_{\text{mc}}(\hat{A}_k, F_{\text{MNP}}) > \tau_s\) 的头(双阈值均可学习,初始0.5)
    • LPG(局部伪标签生成):对选中头用自适应阈值 \(\tau_k = \mu_{A_k} + \alpha \cdot \sigma_{A_k}\)\(\alpha > 1\) 可学习)提取高置信区域生成局部伪标签 \(P_k\),用Dice + CE损失引导 \(M_s^{\text{fu}}\) 向精细边界靠拢
    • 设计动机:全局伪标签捕获中心区域但遗漏边界/纹理细节,不同注意力头关注不同区域的空间多样性可用于局部修正

损失函数 / 训练策略

总损失 = EPL Dice损失(学生DSC mask与学生/教师伪mask对齐)+ \(\mathcal{L}_{\text{MNP}}\)(多线索约束)+ LPR Dice+CE损失(融合预测与局部伪标签对齐)。训练25 epoch,batch 32,AdamW + 余弦退火,AMP混合精度。Backbone:DINO-ViT-S/8。训练集:CAMO-Train(1000)+ COD10K-Train(3040),无标注。V100-SXM2 32GB。

实验关键数据

主实验

UCOD方法对比(4个COD数据集)

方法 类型 CHAMELEON \(S_m\) CAMO \(S_m\) COD10K \(S_m\) NC4K \(S_m\)
FOUND UOS .7161 .6913 .6783 .7459
UCOS-DA UCOD .6715 .6581 .6334 .7189
UCOD-DPL UCOD .7287 .7013 .7090 .7538
SdalsNet UCOD .7236 .6971 .6967 .7386
EReCu UCOD .7321 .7027 .7221 .7583

消融实验

模块组合消融(CAMO / COD10K \(S_m\)↑)

MNP EPL STAF LPR CAMO COD10K
.7027 .7221
.6887 .7111
.6758 .7038
.6895 .7109
.6376 .6400

关键发现

  • 全模块组合在4个数据集的所有主要指标上均达到UCOD SOTA
  • PEF(含EPL+STAF)贡献最大:移除后CAMO \(S_m\) 下降2.69%(.7027→.6758)
  • MNP + EPL组合获得最大互补增益,验证原生线索对伪标签进化的关键引导作用
  • 单/双模块性能明显低于三/四模块联合,证实各模块强互补性
  • DINO基线(无任何模块):CAMO \(S_m = .6376\),全模块提升+.0651

亮点与洞察

  • 将伪标签引导和特征学习两种UCOD范式统一到协同进化框架,概念上简洁有力
  • MNP的三区域(内/边/外)patch采样余弦度量 \(S_{\text{mc}}\) 设计巧妙,可复用于其他无监督分割任务的mask质量评估
  • STAF用Tucker分解+SVD对多层注意力做谱融合,轻量优雅(\(\mathcal{O}(r^2d)\)),是多尺度特征聚合的新方案
  • TAS中注意力熵+多线索一致性的双条件选择机制,泛化性强

局限与展望

  • 部分数据集/指标提升偏小(如CAMO \(S_m\) 仅+.0014),在MAE指标上COD10K比UCOD-DPL持平
  • 仅在DINO-ViT-S/8上验证,未探索DINOv2或更大scale backbone
  • MNP中纹理描述子(LBP, DoG)为手工设计,可探索学习化替代
  • 多路损失+Tucker/SVD+EMA的训练开销不小
  • 未讨论多实例伪装场景的处理能力

相关工作与启发

  • vs UCOD-DPL:同为师生动态伪标签,UCOD-DPL忽略原生图像线索致边界溢出,EReCu引入MNP提供原生感知引导 + STAF替代简单加权聚合
  • vs SdalsNet:自蒸馏注意力位移做前背景分离但缺乏伪标签监督致细节模糊,EReCu兼具双重优势
  • vs FOUND:FOUND用背景优先范式推断前景,但粗粒度边界不适合高相似度伪装场景
  • 启发\(S_{\text{mc}}\) 度量可用于主动学习中估计无标注样本的mask质量;伪标签进化+原生线索引导范式可迁移到无监督显著性检测和医学图像分割

评分

  • 新颖性: ⭐⭐⭐⭐ 统一两种UCOD范式的思路好,各模块设计有亮点,但组合感较强
  • 实验充分度: ⭐⭐⭐⭐ 4个数据集+完整消融+可视化+开源代码,部分提升偏小
  • 写作质量: ⭐⭐⭐⭐ 框架图清晰,公式完整,逻辑连贯
  • 价值: ⭐⭐⭐⭐ UCOD方向SOTA且开源,\(S_{\text{mc}}\) 度量和STAF融合方案可复用