跳转至

Know Thyself by Knowing Others: Learning Neuron Identity from Population Context

会议: NeurIPS 2025
arXiv: 2512.01199
代码: GitHub
领域: 自监督
关键词: 神经元身份, 自监督学习, 对比学习, 时空Transformer, 细胞类型解码

一句话总结

提出NuCLR自监督框架,通过对比学习对群体神经活动中同一神经元的不同时间窗口拉近、不同神经元推远,学习包含群体上下文的神经元级表征,在细胞类型和脑区解码上达到新SOTA,并首次展示了跨动物零样本泛化和数据缩放规律。

背景与动机

现有痛点

现有痛点领域现状:1. 领域现状:理解神经元身份(细胞类型、脑区、连接性)对神经科学至关重要,但传统方法(分子标记、形态学)成本高且覆盖有限。 2. 核心挑战:从神经活动推断身份信息困难——现有方法仅用单神经元特征(波形、ISI),忽略了群体上下文;且需要对每个新动物重训练。 3. 关键洞察:神经元身份在时间上稳定,且群体活动中蕴含丰富的上下文信息。可以用对比学习拉近同一神经元不同时间的表征,推远不同神经元。

方法详解

整体框架

自监督预训练(对比学习)→ 冻结编码器 → 线性探针评估细胞类型/脑区。

关键设计1: 时空Transformer架构

  • 输入:群体N个神经元的spike train,分bin后切patch
  • 时间Transformer层 (\(L_T\)层):每个神经元独立处理其时间序列,用RoPE编码相对时间
  • 时空Transformer层 (\(L_{ST}\)层):交替进行空间注意力(同一时间点跨神经元交互)和时间注意力
  • 置换等变:不假设神经元固定顺序,自然支持变长群体
  • 最终对时间维度平均池化得到每个神经元的表征向量

关键设计2: 对比学习目标 (NuCLR)

  • 对同一记录采样两个时间窗口作为两个view
  • 随机dropout最多50%神经元增强鲁棒性
  • InfoNCE loss:同一神经元跨view为正对,同群体内不同神经元为负对
  • 关键区别:不跨不同动物/session构造负对(避免简单负样本过多)

评估策略

  • Transductive:测试群体参与预训练,部分标签训练分类器
  • Transductive zero-shot:测试群体参与预训练但无标签
  • Inductive zero-shot:测试群体完全未见过,不重训练

实验关键数据

细胞类型解码 (Macro F1)

主实验

数据集 设置 NuCLR NeuPRINT NEMO LOLCAT
Allen VC (3类) Ind. zero-shot 0.720 N/A 0.419 0.412
Bugeon E vs I Transductive 0.811 0.666 N/A 0.721
Bugeon 5-class Transductive 0.610 0.495 N/A 0.290

脑区解码 (Macro F1)

消融实验

数据集 设置 NuCLR NEMO
IBL 10区 Ind. zero-shot 0.530 0.379
Steinmetz 4区 Transductive 0.959 0.699

缩放分析

  • 预训练动物数翻倍对细胞类型解码的提升 > 监督标签数翻倍
  • 仅用12.5%标签训练分类器即超越基线用100%标签的性能

亮点与洞察

  1. 群体上下文至关重要:仅用单神经元特征的方法(NEMO/LOLCAT)大幅落后
  2. 零样本泛化:同一预训练模型直接应用于全新动物,无需重训练
  3. 首个缩放分析:证明更多无标签数据(动物数)持续提升性能
  4. 跨模态适用:同一框架适用于电生理和钙成像数据

局限与展望

  1. 抑制性神经元子类型解码(5类)的F1仅0.39(inductive),仍有提升空间
  2. 空间注意力在大群体上计算量为 \(O(N^2)\),可能限制超大规模记录
  3. 目前仅验证在小鼠数据上,人脑/灵长类数据的泛化待验证
  4. 每个probe insertion视为独立群体——跨probe的信息未利用

相关工作与启发

  • vs NEMO:NEMO用自相关图+波形模板的CLIP方式,缺乏群体上下文
  • vs NeuPRINT:用群体统计摘要但无法inductive泛化
  • vs LOLCAT:监督方法,需要标签且依赖ISI分布
  • vs POYO+:多session解码方法,其neuron embedding在细胞类型上大幅落后NuCLR

相关工作与启发

  • 对比学习在神经科学中的应用范式:用时间不变性作为自监督信号
  • 时空Transformer的置换等变设计可借鉴到其他集合结构数据
  • 缩放规律的发现暗示大规模神经数据集(如Allen Brain Atlas)的价值将持续增长

评分

  • 新颖性: ⭐⭐⭐⭐ 自监督+群体上下文学习神经元身份是新范式
  • 实验充分度: ⭐⭐⭐⭐⭐ 4个数据集+3种评估设置+缩放分析+消融
  • 写作质量: ⭐⭐⭐⭐⭐ 问题驱动、结构严谨、图表清晰
  • 价值: ⭐⭐⭐⭐ 计算神经科学的重要工具