Know Thyself by Knowing Others: Learning Neuron Identity from Population Context¶
会议: NeurIPS 2025
arXiv: 2512.01199
代码: GitHub
领域: 自监督
关键词: 神经元身份, 自监督学习, 对比学习, 时空Transformer, 细胞类型解码
一句话总结¶
提出NuCLR自监督框架,通过对比学习对群体神经活动中同一神经元的不同时间窗口拉近、不同神经元推远,学习包含群体上下文的神经元级表征,在细胞类型和脑区解码上达到新SOTA,并首次展示了跨动物零样本泛化和数据缩放规律。
背景与动机¶
现有痛点¶
现有痛点:领域现状:1. 领域现状:理解神经元身份(细胞类型、脑区、连接性)对神经科学至关重要,但传统方法(分子标记、形态学)成本高且覆盖有限。 2. 核心挑战:从神经活动推断身份信息困难——现有方法仅用单神经元特征(波形、ISI),忽略了群体上下文;且需要对每个新动物重训练。 3. 关键洞察:神经元身份在时间上稳定,且群体活动中蕴含丰富的上下文信息。可以用对比学习拉近同一神经元不同时间的表征,推远不同神经元。
方法详解¶
整体框架¶
自监督预训练(对比学习)→ 冻结编码器 → 线性探针评估细胞类型/脑区。
关键设计1: 时空Transformer架构¶
- 输入:群体N个神经元的spike train,分bin后切patch
- 时间Transformer层 (\(L_T\)层):每个神经元独立处理其时间序列,用RoPE编码相对时间
- 时空Transformer层 (\(L_{ST}\)层):交替进行空间注意力(同一时间点跨神经元交互)和时间注意力
- 置换等变:不假设神经元固定顺序,自然支持变长群体
- 最终对时间维度平均池化得到每个神经元的表征向量
关键设计2: 对比学习目标 (NuCLR)¶
- 对同一记录采样两个时间窗口作为两个view
- 随机dropout最多50%神经元增强鲁棒性
- InfoNCE loss:同一神经元跨view为正对,同群体内不同神经元为负对
- 关键区别:不跨不同动物/session构造负对(避免简单负样本过多)
评估策略¶
- Transductive:测试群体参与预训练,部分标签训练分类器
- Transductive zero-shot:测试群体参与预训练但无标签
- Inductive zero-shot:测试群体完全未见过,不重训练
实验关键数据¶
细胞类型解码 (Macro F1)¶
主实验¶
| 数据集 | 设置 | NuCLR | NeuPRINT | NEMO | LOLCAT |
|---|---|---|---|---|---|
| Allen VC (3类) | Ind. zero-shot | 0.720 | N/A | 0.419 | 0.412 |
| Bugeon E vs I | Transductive | 0.811 | 0.666 | N/A | 0.721 |
| Bugeon 5-class | Transductive | 0.610 | 0.495 | N/A | 0.290 |
脑区解码 (Macro F1)¶
消融实验¶
| 数据集 | 设置 | NuCLR | NEMO |
|---|---|---|---|
| IBL 10区 | Ind. zero-shot | 0.530 | 0.379 |
| Steinmetz 4区 | Transductive | 0.959 | 0.699 |
缩放分析¶
- 预训练动物数翻倍对细胞类型解码的提升 > 监督标签数翻倍
- 仅用12.5%标签训练分类器即超越基线用100%标签的性能
亮点与洞察¶
- 群体上下文至关重要:仅用单神经元特征的方法(NEMO/LOLCAT)大幅落后
- 零样本泛化:同一预训练模型直接应用于全新动物,无需重训练
- 首个缩放分析:证明更多无标签数据(动物数)持续提升性能
- 跨模态适用:同一框架适用于电生理和钙成像数据
局限与展望¶
- 抑制性神经元子类型解码(5类)的F1仅0.39(inductive),仍有提升空间
- 空间注意力在大群体上计算量为 \(O(N^2)\),可能限制超大规模记录
- 目前仅验证在小鼠数据上,人脑/灵长类数据的泛化待验证
- 每个probe insertion视为独立群体——跨probe的信息未利用
相关工作与启发¶
- vs NEMO:NEMO用自相关图+波形模板的CLIP方式,缺乏群体上下文
- vs NeuPRINT:用群体统计摘要但无法inductive泛化
- vs LOLCAT:监督方法,需要标签且依赖ISI分布
- vs POYO+:多session解码方法,其neuron embedding在细胞类型上大幅落后NuCLR
相关工作与启发¶
- 对比学习在神经科学中的应用范式:用时间不变性作为自监督信号
- 时空Transformer的置换等变设计可借鉴到其他集合结构数据
- 缩放规律的发现暗示大规模神经数据集(如Allen Brain Atlas)的价值将持续增长
评分¶
- 新颖性: ⭐⭐⭐⭐ 自监督+群体上下文学习神经元身份是新范式
- 实验充分度: ⭐⭐⭐⭐⭐ 4个数据集+3种评估设置+缩放分析+消融
- 写作质量: ⭐⭐⭐⭐⭐ 问题驱动、结构严谨、图表清晰
- 价值: ⭐⭐⭐⭐ 计算神经科学的重要工具