跳转至

🧊 3D 视觉

🔬 ICLR2026 · 65 篇论文解读

📌 同领域跨会议浏览: 📷 CVPR2026 (252) · 🤖 AAAI2026 (74) · 🧠 NeurIPS2025 (116) · 📹 ICCV2025 (268) · 🧪 ICML2025 (11) · 💬 ACL2025 (1)

🔥 高频主题: 3D 高斯渲染 ×10 · 机器人 ×4 · 动态场景 ×4 · 三维重建 ×4 · 新视角合成 ×3

3DGEER: 3D Gaussian Rendering Made Exact and Efficient for Generic Cameras

提出 3DGEER 框架,通过推导沿光线积分高斯密度的闭式解、设计粒子包围截锥体 (PBF) 进行精确高效的光线-粒子关联、以及引入双极等角投影 (BEAP) 统一宽视场相机表示,在任意相机模型下实现了几何精确且实时高效的 3D 高斯渲染,在鱼眼和针孔数据集上全面超越现有方法。

A Genetic Algorithm for Navigating Synthesizable Molecular Spaces

提出 SynGA,一种直接在合成路线(合成树)上操作的遗传算法,通过自定义的交叉和变异算子将搜索严格约束在可合成分子空间内,结合 ML 驱动的构建块过滤实现 SOTA 的可合成类似物搜索和属性优化性能。

A Step to Decouple Optimization in 3DGS

深入分析 3DGS 优化中被忽视的更新步耦合(不可见视点下的隐式更新和动量重缩放)和梯度耦合(正则化与光度损失在 Adam 动量中的耦合),通过解耦和重组提出 AdamW-GS 优化器,在不引入额外剪枝操作的情况下同时提升重建质量和减少冗余原语。

Augmented Radiance Field: A General Framework for Enhanced Gaussian Splatting

提出增强辐射场 (Augmented Radiance Field) 框架,通过设计具有视角相关不透明度的增强高斯核来显式建模高光分量,并引入误差驱动的补偿策略(2D 高斯初始化 → 逆投影至 3D → 联合优化),作为后处理即插即用地增强现有 3DGS 场景,在多个数据集上超越 SOTA NeRF 方法,同时仅需二阶球谐即可捕获复杂光照。

Brain-IT: Image Reconstruction from fMRI via Brain-Interaction Transformer

提出 Brain-IT 框架,通过脑启发式的 Brain Interaction Transformer (BIT) 将功能相似的脑体素聚类为跨被试共享的 Brain Token,并从中预测局部化的语义和结构图像特征,实现从 fMRI 到图像的高保真重建,仅用 1 小时数据即达到先前方法 40 小时的性能。

CloDS: Visual-Only Unsupervised Cloth Dynamics Learning in Unknown Conditions

CloDS 提出首个从多视角视频中无监督学习布料动力学的框架,通过 Spatial Mapping Gaussian Splatting 建立 2D 图像到 3D 网格的可微映射,结合双位置不透明度调制解决自遮挡问题,使 GNN 在无物理参数监督下就能学到接近全监督水平的布料动力学。

Color3D: Controllable and Consistent 3D Colorization with Personalized Colorizer

Color3D 提出"只上色一张关键视角→微调个性化 colorizer→传播颜色到所有视角和时间步"的范式,将复杂的 3D 上色问题转化为单图上色+颜色传播问题,在静态和动态 3D 场景上都实现了丰富色彩、跨视角一致性和用户可控性的统一。

COOPERTRIM: Adaptive Data Selection for Uncertainty-Aware Cooperative Perception

提出 CooperTrim 自适应特征选择框架,通过共形时序不确定性度量评估特征相关性,并用数据驱动机制动态决定共享数量,在协同语义分割中实现 80.28% 带宽降低且性能可比,首次将选择性共享应用于协同分割任务。

CORE-3D: Context-aware Open-vocabulary Retrieval by Embeddings in 3D

提出CORE-3D,一个无需训练的开放词汇3D语义分割与自然语言目标检索流水线,通过渐进式粒度掩码生成、上下文感知CLIP编码和多视角3D融合,在Replica和ScanNet上超越现有方法。

CRISP: Contact-Guided Real2Sim from Monocular Video with Planar Scene Primitives

提出 CRISP,一种从单目视频中恢复可仿真人体运动和场景几何的方法,通过拟合平面原语获取干净的仿真就绪几何体,结合人体-场景接触建模重建被遮挡区域,将人形控制器的运动追踪失败率从 55.2% 降至 6.9%。

Ctrl&Shift: High-Quality Geometry-Aware Object Manipulation in Visual Generation

提出Ctrl&Shift,一个端到端扩散框架,通过将物体操纵分解为物体移除+参考引导修复,并注入相对相机位姿控制,首次在不依赖显式3D重建的情况下实现几何一致的细粒度物体操纵。

D-REX: Differentiable Real-to-Sim-to-Real Engine for Learning Dexterous Grasping

提出D-REX,一个基于高斯表示的可微real-to-sim-to-real引擎,通过视觉观测和机器人控制信号进行端到端物体质量辨识,并利用辨识的质量进行力感知的灵巧抓取策略学习,有效缩小了sim-to-real差距。

DiffWind: Physics-Informed Differentiable Modeling of Wind-Driven Object Dynamics

提出 DiffWind,一个物理约束的可微分框架,通过将风建模为网格物理场、物体表示为 3D Gaussian Splatting 粒子系统、用 Material Point Method(MPM)建模风-物交互,并引入 Lattice Boltzmann Method(LBM)作为物理约束,实现了从视频中联合重建风力场和物体运动,并支持新风条件下的前向仿真和风力迁移等应用,在自建的 WD-Objects 数据集上显著超越已有动态场景建模方法。

Dynamic Novel View Synthesis in High Dynamic Range

首次提出 HDR 动态新视角合成 (HDR DNVS) 问题,并设计 HDR-4DGS 框架,通过动态色调映射模块在时变场景中实现时序一致的 HDR 辐射场重建,在合成和真实数据集上均超越现有方法。

Efficient-LVSM: Faster, Cheaper, and Better Large View Synthesis Model via Decoupled Co-Refinement Attention

提出 Efficient-LVSM,通过解耦输入视图编码与目标视图生成的双流架构,将新视图合成的复杂度从 \(O(N_{in}^2)\) 降至 \(O(N_{in})\),在 RealEstate10K 上以 50% 训练时间达到 SOTA(29.86 dB PSNR),推理速度提升 4.4 倍。

EgoNight: Towards Egocentric Vision Understanding at Night with a Challenging Benchmark

提出首个夜间第一人称视觉基准 EgoNight,包含日夜对齐视频和 3658 个人工验证 QA 对,揭示 MLLM 在低光照下存在高达 32.8% 的性能下降。

EgoWorld: Translating Exocentric View to Egocentric View using Rich Exocentric Observations

EgoWorld 提出一种端到端的外部-第一人称视角转换框架:从单张第三人称图像中提取 3D 点云、手部姿态和文本描述三种互补观测,通过点云重投影获得稀疏第一人称 RGB 映射,再以扩散模型 inpainting 方式重建完整的第一人称高保真图像,在 H2O 等四个数据集的多种 unseen 设置下全面超越 SOTA。

Einstein Fields: A Neural Perspective To Computational General Relativity

提出EinFields,首个将神经隐式表示应用于四维广义相对论模拟压缩的框架,通过将度量张量场编码为紧凑神经网络权重,实现4000倍存储压缩、5-7位数值精度,且通过自动微分获得的张量导数比有限差分精度高5个数量级。

Fast Estimation of Wasserstein Distances via Regression on Sliced Wasserstein Distances

利用 Sliced Wasserstein(SW)距离既能提供 Wasserstein 距离的下界、lifted SW 距离又能提供上界这一数学性质,构建极简的线性回归模型(RG 框架),仅用少量分布对的精确 Wasserstein 作为监督信号就能训练出高精度的 Wasserstein 代理估计器,在低数据场景下全面碾压 Transformer 方法 Wasserstein Wormhole。

FastGHA: Generalized Few-Shot 3D Gaussian Head Avatars with Real-Time Animation

提出 FastGHA,一个前馈式少样本 3D 高斯头部化身生成框架,从 4 张任意表情/视角的输入图像在 ~1 秒内重建可动画的 3D 高斯头部,支持 62 FPS 实时动画,在 Ava-256 上 PSNR 达到 22.5 dB(超越 Avat3r 的 20.7,且快 7.75 倍)。

Fused-Planes: Why Train a Thousand Tri-Planes When You Can Share?

提出 Fused-Planes,通过宏观-微观分解将 Tri-Plane 表示分为共享的类级基平面(macro)和对象特有的细节平面(micro),结合潜空间渲染,实现 7× 训练加速、3× 内存压缩,同时保持甚至超越独立 Tri-Plane 的重建质量。

Generalizable Coarse-to-Fine Robot Manipulation via Language-Aligned 3D Keypoints

CLAP(Coarse-to-fine Language-Aligned manipulation Policy)通过任务分解、VLM微调的3D关键点预测和3D感知表征三个核心组件,实现了对新指令和新环境的强泛化能力,在 GemBench 上以 1/5 的训练数据比 SOTA 高出 12%。

GeoPurify: A Data-Efficient Geometric Distillation Framework for Open-Vocabulary 3D Segmentation

提出 GeoPurify 框架,通过从 3D 自监督教师模型蒸馏几何先验来净化 2D VLM 投影到 3D 的噪声特征,仅用约 1.5% 的训练数据即可达到或超越全量训练的 SOTA 开放词汇 3D 分割性能。

GIQ: Benchmarking 3D Geometric Reasoning of Vision Foundation Models with Simulated and Real Polyhedra

提出 GIQ 基准数据集,包含 224 种合成和真实多面体,通过单目 3D 重建、对称性检测、心理旋转测试和零样本分类四项任务系统评估视觉基础模型的几何推理能力,揭示了当前模型在基本几何理解上的显著不足。

HDR-NSFF: High Dynamic Range Neural Scene Flow Fields

提出 HDR-NSFF,将 HDR 视频重建从传统的 2D 像素级融合范式转变为 4D 时空建模,从交替曝光单目视频中联合重建 HDR 辐射场、3D 场景流、几何和色调映射,实现了时空一致的动态 HDR 新视角合成。

Improving Long-Range Interactions in Graph Neural Simulators via Hamiltonian Dynamics

提出 Information-preserving Graph Neural Simulators (IGNS),利用 port-Hamiltonian 动力学结构在图上保持信息不耗散,结合 warmup 初始化、几何编码和多步训练目标,在 6 个物理仿真基准上全面超越现有图神经仿真器。

Into the Rabbit Hull: From Task-Relevant Concepts in DINO to Minkowski Geometry

本文通过稀疏自编码器(SAE)从 DINOv2 中提取 32,000 个视觉概念字典,系统研究了不同下游任务(分类/分割/深度估计)如何选择性地使用这些概念,揭示了表示空间的几何结构超越了线性稀疏编码假说(LRH),并提出了基于 Minkowski 和的新表示假说(MRH),认为 token 是多个凸混合的叠加。

Into the Rabbit Hull: From Task-Relevant Concepts in DINO to Minkowski Geometry

通过在 DINOv2 上训练 32,000 单元的 Sparse Autoencoder 字典,系统分析了下游任务如何招募不同概念,发现表征几何偏离线性稀疏假说(LRH),进而提出 Minkowski Representation Hypothesis(MRH),认为 token 表征是多个凸多面体的 Minkowski 和,概念由原型点的邻近性而非线性方向定义。

Joint Shadow Generation and Relighting via Light-Geometry Interaction Maps

提出 Light-Geometry Interaction (LGI) maps,一种从单目深度估计中编码光照-遮挡关系的 2.5D 表示,嵌入 bridge matching 生成框架中实现阴影生成与物体重光照的联合建模,在合成和真实图像上均取得 SOTA 效果。

LaVCa: LLM-assisted Visual Cortex Captioning

提出 LaVCa 方法,利用 LLM 为人类视觉皮层的每个体素生成自然语言描述(caption),通过"编码模型→最优图像选取→MLLM生成描述→LLM关键词提炼+句子组合"四步流程,比已有方法 BrainSCUBA 更准确、更多样地揭示了体素级视觉选择性。

Learning Part-Aware Dense 3D Feature Field for Generalizable Articulated Object Manipulation

提出 PA3FF(Part-Aware 3D Feature Field),一种原生 3D 的稠密部件感知特征表示,通过 Sonata 预训练骨干 + 几何/语义对比学习获得零部件级特征,结合 Part-Aware Diffusion Policy (PADP) 实现少样本、高泛化性的关节物体操作,在仿真和真实环境中均大幅超越 CLIP/DINOv2/GenDP 等基线。

Learning Physics-Grounded 4D Dynamics with Neural Gaussian Force Fields

提出NGFF框架,从多视角RGB图像构建3D高斯表示并学习显式神经力场驱动物理动力学,通过ODE求解实现交互式物理真实4D视频生成,比传统高斯模拟器快两个数量级,超越Veo3和NVIDIA Cosmos。

Learning Unified Representation of 3D Gaussian Splatting

3DGS原生参数 \(\boldsymbol{\theta}=\{\mu,\mathbf{q},\mathbf{s},\mathbf{c},o\}\) 存在非唯一性与数值异质性,不适合作为神经网络的学习空间。本文提出子流形场 (Submanifold Field) 表示:将每个高斯基元映射到其等概率椭球面上的连续颜色场,证明该映射是单射的,从根源上消除参数歧义,并配合基于最优传输的流形距离 (M-Dist) 训练 VAE 嵌入,在重建保真度、跨域泛化与潜空间稳定性上全面优于参数基线。

LiTo: Surface Light Field Tokenization

提出LiTo——通过将表面光场(surface light field)编码为紧凑latent向量集合来同时建模3D几何和视角依赖外观:输入RGB-D多视角图像的光场随机子采样 -> Perceiver IO编码器(支持100万token输入的3D局部attention) + flow-matching几何解码器 + 高阶球谐Gaussian解码器 -> 实现重建和单图到3D生成都超越TRELLIS,首次在latent 3D表示中建模高光/菲涅尔反射等视角依赖效果。

MEGS2: Memory-Efficient Gaussian Splatting via Spherical Gaussians and Unified Pruning

提出MEGS2——从渲染VRAM角度出发压缩3DGS:用可裁剪的任意方向球面高斯(SG)完全替代球谐函数(SH)降低每个primitive的参数量 + 统一软剪枝框架将primitive数量和lobe数量的裁剪建模为单一内存约束优化问题 -> 实现8x静态VRAM压缩和6x渲染VRAM压缩,同时保持渲染质量,首次让3DGS在移动端实时运行。

Mono4DGS-HDR: High Dynamic Range 4D Gaussian Splatting from Alternating-exposure Monocular Videos

首次解决从无位姿交替曝光单目视频重建可渲染 4D HDR 场景的问题,通过两阶段优化(正交视频空间 → 世界空间)、Video-to-World 高斯变换策略和时间亮度正则化,在合成数据上达到 37.64 dB HDR PSNR、161 FPS,全面超越现有方法。

MultiMat: Multimodal Program Synthesis for Procedural Materials using Large Multimodal Models

提出 MultiMat,首个将大型多模态模型(LMM)用于程序化材质节点图合成的框架,通过在自回归生成过程中融合中间节点的视觉渲染反馈(混合调节/图调节两种模式),并配合增量式约束树搜索推理实现即时校验与回溯纠错,在 6878 个产级 Substance Designer 材质上训练后,无条件生成与条件生成均大幅超越纯文本基线。

NOVA3R: Non-pixel-aligned Visual Transformer for Amodal 3D Reconstruction

提出NOVA3R——从无位姿图像进行非像素对齐的完整3D重建:用可学习场景token跨视角聚合全局信息 + 基于flow-matching的扩散3D解码器生成完整(含遮挡区域)的点云,解决像素对齐方法只能重建可见面且重叠区域有冗余几何的两大根本限制,在SCRREAM/GSO等数据集上场景级和物体级重建均超越SOTA。

Omni-View: Unlocking How Generation Facilitates Understanding in Unified 3D Model based on Multiview images

构建统一的3D场景理解与生成模型 Omni-View,通过纹理模块(新视角合成)和几何模块(深度/位姿估计)的生成能力增强理解性能,在 VSI-Bench 上达到 55.4 分超越所有现有专用3D理解模型。

One2Scene: Geometric Consistent Explorable 3D Scene Generation from a Single Image

提出 One2Scene 三阶段框架,将单图生成可探索 3D 场景分解为全景生成→前馈 3D 高斯溅射构建几何支架→支架引导的新视角合成,通过将全景深度估计重新表述为多视图立体匹配问题,实现几何一致且可自由探索的 3D 场景生成。

One2Scene: Geometric Consistent Explorable 3D Scene Generation from a Single Image

提出One2Scene——将单图到可探索3D场景的病态问题分解为三个子任务:(1)全景图生成扩展视觉覆盖 (2)前馈3DGS网络从稀疏锚点视角构建显式3D几何scaffold (3)scaffold引导的新视角合成,通过Dual-LoRA融合高质量锚点视角和几何先验,在大视角变化下实现几何一致且逼真的场景生成,显著超越SOTA。

OpenFly: A Comprehensive Platform for Aerial Vision-Language Navigation

构建OpenFly——航空视觉-语言导航(VLN)综合平台:集成4种渲染引擎(UE/GTA V/Google Earth/3DGS)+开发全自动数据生成工具链(点云获取→语义分割→轨迹生成→GPT-4o指令)+构建10万轨迹大规模数据集(18场景)+提出关键帧感知VLN模型OpenFly-Agent(关键帧选择+视觉token融合),在已见/未见场景分别以14.0%/7.9%的成功率优势超越现有方法。

PartSAM: A Scalable Promptable Part Segmentation Model Trained on Native 3D Data

提出首个在大规模原生 3D 数据上训练的可提示部件分割模型 PartSAM,采用 triplane 双分支编码器(冻结 SAM 先验 + 可学习 3D 分支)和 SAM 风格解码器,通过模型在环标注流程构建 500 万+形状-部件对,在开放世界设置下单次点击即超越 Point-SAM 90%+。

PD²GS: Part-Level Decoupling and Continuous Deformation of Articulated Objects via Gaussian Splatting

提出 PD²GS 框架,通过学习共享的 canonical 高斯场并将每个交互状态建模为其连续形变,实现铰接物体的部件级解耦、重建和连续控制,采用粗到细的运动轨迹聚类 + SAM 引导的边界细化,无需手动监督。

Peering into the Unknown: Active View Selection with Neural Uncertainty Maps for 3D Reconstruction

提出 PUN(Peering into the UnkNowN),用轻量前馈网络 UPNet 从单张图像直接预测球面上所有候选视点的不确定性分布(neural uncertainty map),替代了需要迭代重训 NeRF/3DGS 的传统主动视点选择流程。仅用上界一半的视点就达到可比的重建质量,选点阶段实现 400 倍加速和 50%+ 的计算资源节省。

pySpatial: Generating 3D Visual Programs for Zero-Shot Spatial Reasoning

pySpatial 是一个视觉编程框架,让 MLLM 通过生成 Python 代码自动调用 3D 空间工具(3D 重建、相机位姿恢复、新视角渲染等),将有限的 2D 图像输入转化为可交互探索的 3D 场景,实现零样本、即插即用的显式 3D 空间推理,在 MindCube 基准上以 58.56% 的整体准确率超越 GPT-4.1-mini 12.94%、超越 VLM-3R 16.5%,并成功驱动真实四足机器人完成室内导航。

QuadGPT: Native Quadrilateral Mesh Generation with Autoregressive Models

提出 QuadGPT——首个端到端自回归生成原生四边形网格的框架,通过统一的混合拓扑tokenization(三角形面 padding 为4顶点块)、Hourglass Transformer 架构、以及基于拓扑奖励的截断 DPO (tDPO) 微调,在 Chamfer Distance、Hausdorff Distance、四边形比例和用户偏好上全面超越现有的三角形→四边形转换流水线和十字场引导方法。

Quantized Visual Geometry Grounded Transformer

针对十亿级 3D 重建模型 VGGT 的部署需求,提出首个专用 PTQ 框架 QuantVGGT,通过双重平滑细粒度量化(Hadamard 旋转 + 通道平滑)解决特殊 token 导致的重尾分布,以及噪声过滤多样化采样解决校准不稳定问题,4-bit 量化实现 3.7× 内存压缩和 2.5× 加速,保持 98%+ 精度。

RadioGS: Radiometrically Consistent Gaussian Surfels for Inverse Rendering

RadioGS 提出辐射一致性损失——通过最小化每个 Gaussian surfel 的学习辐射与其物理渲染辐射之间的残差,为未观测方向提供基于物理的监督信号,构建自纠正反馈循环,实现了准确的间接照明和材质分解,并支持分钟级重新打光。

Scaling Sequence-to-Sequence Generative Neural Rendering

提出 Kaleido,一系列将 3D 视为视频特殊子域的 decoder-only rectified flow transformer 生成模型,通过统一位置编码(Unified Positional Encoding)、掩码自回归框架和视频预训练策略,实现无需任何显式 3D 表示的 "any-to-any" 6-DoF 新视角合成,首次在多视角设置下匹配逐场景优化方法(InstantNGP)的渲染质量,并将分辨率从 512/576px 提升至 1024px。

SceneTransporter: Optimal Transport-Guided Compositional Latent Diffusion for Single-Image Structured 3D Scene Generation

SceneTransporter 通过在组合 3D latent 扩散模型的去噪循环中引入熵最优传输(OT)框架,将 open-world 结构化 3D 场景生成重新建模为全局关联分配问题:OT 计划门控交叉注意力实现排他性的 patch-to-part 路由(防止特征纠缠),边缘正则化的分配代价鼓励在图像边缘处分离不同实例,在 74 张多样化 open-world 场景图像上实现了 SOTA 的实例级一致性和几何保真度。

Sharp Monocular View Synthesis in Less Than a Second

SHARP 通过单次前馈神经网络从单张照片生成约 120 万个 3D Gaussian,在 A100 GPU 上不到 1 秒完成推理,渲染速度超 100 FPS,在 6 个数据集上零样本泛化均达 SOTA,相比最强先前方法 LPIPS 降低 25–34%、合成时间缩短三个数量级。

Splat and Distill: Augmenting Teachers with Feed-Forward 3D Reconstruction for 3D-Aware Distillation

在 student-teacher 蒸馏框架中,用预训练的前馈式 3D 重建模型(MVSplat)增强 teacher,将 2D 特征提升到 3D Gaussian 表示后渲染到新视角,从而让 student 学到几何一致的 3D-aware 2D 特征,在深度估计、法线估计、语义分割和多视图对应等下游任务上全面超越现有方法。

Splat Feature Solver

将3D splat表示的特征提升(feature lifting)问题统一建模为稀疏线性逆问题 \(AX=B\),提出闭式求解器并证明其在凸损失下的 \((1+\beta)\)-近似误差上界,配合 Tikhonov 引导和后聚合过滤两种正则化策略,在开放词汇3D分割任务上达到SOTA。

Station2Radar: Query-Conditioned Gaussian Splatting for Precipitation Field

提出 Query-Conditioned Gaussian Splatting (QCGS),首次将 2D 高斯溅射引入降水场生成任务,融合卫星图像与自动气象站稀疏观测,实现无雷达条件下分辨率灵活的降水场重建,RMSE 较传统网格化产品提升超 50%。

StreamSplat: Towards Online Dynamic 3D Reconstruction from Uncalibrated Video Streams

StreamSplat 提出了一个完全前馈的在线动态3D重建框架,通过概率位置采样、双向形变场和自适应高斯融合三大创新,能从未标定视频流中即时生成动态3DGS表示,速度比优化方法快1200倍。

Stroke3D: Lifting 2D Strokes into Rigged 3D Model via Latent Diffusion Models

Stroke3D 首次实现从用户绘制的2D笔画和文本提示直接生成绑骨3D网格模型,采用骨骼优先的两阶段流水线:先用图VAE+图DiT生成可控3D骨骼,再通过TextuRig数据集增强和SKA-DPO优化生成高质量网格。

Stylos: Multi-View 3D Stylization with Single-Forward Gaussian Splatting

Stylos 提出了一个单次前馈的3D风格迁移框架,通过共享Transformer骨干的双路径设计(几何自注意力+风格交叉注意力)和体素级3D风格损失,实现从未标定输入的零样本3D风格化,支持单视角到数百视角的扩展。

SurfSplat: Conquering Feedforward 2D Gaussian Splatting with Surface Continuity Priors

SurfSplat 提出基于2DGS的前馈3D重建框架,通过表面连续性先验将高斯的旋转和尺度与邻域位置绑定、以及强制透明度混合策略解决颜色偏差,并引入HRRC指标揭示高分辨率下的重建质量差异。

Topology-Preserved Auto-regressive Mesh Generation in the Manner of Weaving Silk

提出一种类似"织丝"的网格 tokenization 算法,通过顶点分层和排序提供规范的拓扑框架,保证生成网格的流形性、水密性、法线一致性和部件感知性,同时达到 SOTA 压缩效率。

UFO-4D: Unposed Feedforward 4D Reconstruction from Two Images

提出 UFO-4D,一个统一的前馈框架,仅从两张无位姿图像直接预测动态 3D 高斯表示,实现 3D 几何、3D 运动和相机位姿的联合一致估计,在几何和运动基准上比现有方法提升达 3 倍。

Uncertainty Matters in Dynamic Gaussian Splatting for Monocular 4D Reconstruction

提出 USplat4D,一种不确定性感知的动态高斯泼溅框架,通过估计每个高斯的时变不确定性并构建不确定性引导的时空图来传播可靠运动线索,显著提升了遮挡区域和极端新视角下的单目 4D 重建质量。

Universal Beta Splatting

提出 Universal Beta Splatting (UBS),将 3D 高斯 Splatting 推广为 N 维各向异性 Beta 核,通过逐维度形状控制在单一表示中统一建模空间几何、视角依赖外观和场景动态,实现了可解释的场景分解和 SOTA 渲染质量。

UrbanGS: A Scalable and Efficient Architecture for Geometrically Accurate Large-Scene Reconstruction

提出 UrbanGS,一个面向城市级场景的可扩展 3DGS 重建框架,通过深度一致的 D-Normal 正则化、空间自适应高斯剪枝和统一分区策略,同时提升几何精度、渲染质量和内存效率。

Weight Space Representation Learning on Diverse NeRF Architectures

提出首个能处理多种 NeRF 架构(MLP/tri-plane/hash table)权重的表示学习框架,通过 Graph Meta-Network 编码器 + SigLIP 对比损失构建架构无关的潜在空间,在 13 种 NeRF 架构上实现分类、检索和语言任务,并能泛化到训练时未见的架构。