跳转至

🧠 MoE / 混合专家

🔬 ICLR2026 · 1 篇论文解读

📌 同领域跨会议浏览: 🧠 NeurIPS2025 (1) · 💬 ACL2025 (4)

MoE-GS: Mixture of Experts for Dynamic Gaussian Splatting

提出 MoE-GS,首个将混合专家架构引入动态高斯泼溅的框架,通过 Volume-aware Pixel Router 自适应融合多种异构变形先验(HexPlane/逐高斯/多项式/插值),在 N3V 和 Technicolor 数据集上一致超越 SOTA,并通过单次渲染、门控剪枝和知识蒸馏保持效率。