GraphTOP: Graph Topology-Oriented Prompting for Graph Neural Networks¶
会议: NeurIPS 2025
arXiv: 2510.22451
代码: https://github.com/xbfu/GraphTOP
领域: 图学习 / Graph Prompting
关键词: Graph Prompting, Topology, Edge Rewiring, Pre-training, Gumbel-Softmax
一句话总结¶
提出首个图拓扑导向的 prompting 框架 GraphTOP,通过将 topology-oriented prompting 建模为边重连问题并用 Gumbel-Softmax 松弛到连续空间,在 5 个数据集 4 种预训练策略下超越 6 个基线方法。
研究背景与动机¶
领域现状:"预训练-适配" 范式在图学习中广泛使用。Graph prompting 通过修改输入图的数据(保持预训练 GNN 冻结)来适配下游任务,是一种高效的适配策略。
现有痛点:现有 graph prompting 方法几乎都是 feature-oriented 的——只操作节点特征或隐层表示(如 GPF、All-in-one、GraphPrompt),完全忽视了图拓扑这一图数据的本质特征。然而图表示不仅依赖特征,还由拓扑结构决定。
核心矛盾:如何通过修改图拓扑来实现 prompting?边选择是离散优化问题,难以直接用梯度下降。
本文目标:设计 topology-oriented 的 graph prompting 框架,让预训练 GNN 模型通过拓扑修改适配下游节点分类任务。
切入角度:将 topology prompting 建模为 edge rewiring 问题,通过 Bernoulli 重参数化 + Gumbel-Softmax 松弛到连续概率空间。
核心 idea:学习每条边的存在概率作为拓扑 prompt,通过 Gumbel-Softmax 使其可微训练,用熵正则化保证松弛紧密性和图稀疏性。
方法详解¶
整体框架¶
给定预训练 GNN 模型 \(f_{\theta^*}\) 和输入图 \(\mathcal{G} = (\mathbf{A}, \mathbf{X})\),GraphTOP 学习一个 prompted 图 \(\tilde{\mathcal{G}} = (\mathbf{S}, \mathbf{X})\),其中 \(\mathbf{S}\) 是学习得到的邻接矩阵。通过 \(\mathbf{S}\) 替换原始 \(\mathbf{A}\),冻结的 GNN 能为下游任务生成更合适的表示。
关键设计¶
-
Edge Rewiring 建模:
- 功能:将 topology prompt 建模为每对节点间是否存在边的二元决策 \(s_{ij} \in \{0,1\}\)
- 核心思路:每个 \(s_{ij}\) 视为 Bernoulli 随机变量,参数为 \(p_{ij}\),通过 Gumbel-Softmax 重参数化使采样可微。利用 Theorem 1 证明 \(\Pr(G_1 - G_2 + \log(p/(1-p)) \geq 0) = p\)
- 设计动机:将离散的边选择问题松弛为连续的概率优化,使得梯度下降可用
-
共享可训练 Projector:
- 功能:通过一个 2 层 MLP 从预训练 GNN 的节点表示计算边概率 \(p_{ij} = \sigma(W_2(\text{ReLU}(W_1(h_i + h_j))))\)
- 核心思路:不独立学每个 \(p_{ij}\)(参数爆炸),而是用共享 projector 从节点表示推断边概率
- 设计动机:大幅减少参数量,且利用预训练表示中的语义信息指导拓扑修改
-
子图约束 (Subgraph-constrained):
- 功能:将 edge rewiring 限制在每个目标节点的 \(\rho\)-hop 局部子图内(默认 \(\rho=2\))
- 核心思路:只重连目标节点与子图内其他节点的边,保持其余边不变,复杂度从 \(O(D^{2\rho})\) 降到 \(O(D^{\rho})\)
- 设计动机:GNN 表示主要依赖局部子图,全局 rewiring 不必要且计算成本高
损失函数 / 训练策略¶
- 总损失:\(\mathcal{L}_P + \lambda_1 \mathcal{L}_E + \lambda_2 \mathcal{L}_S\)
- \(\mathcal{L}_P\): 节点分类交叉熵
- \(\mathcal{L}_E\): 熵正则化(鼓励概率趋向 0 或 1,保证松弛紧密性)
- \(\mathcal{L}_S\): 稀疏性正则化(控制 prompted 图的边密度,参数 \(\gamma=0.5\))
- 温度退火 \(\tau\) 线性递减,从概率近似过渡到确定性输出
实验关键数据¶
主实验 — 5-shot Node Classification¶
| 预训练 | 方法 | Cora | PubMed | Amazon | Minesweeper | Flickr |
|---|---|---|---|---|---|---|
| GraphCL | Linear Probe | 55.69 | 67.30 | 23.19 | 67.59 | 29.31 |
| GraphCL | ProNoG (SOTA) | 60.01 | 68.17 | 23.26 | 65.48 | 26.17 |
| GraphCL | GraphTOP | 65.12 | 69.42 | 27.15 | 70.23 | 31.84 |
消融实验¶
| 配置 | 关键发现 |
|---|---|
| w/o 熵正则化 \(\mathcal{L}_E\) | 推理时拓扑不稳定,性能下降 |
| w/o 稀疏正则化 \(\mathcal{L}_S\) | 图变得过密,效果下降 |
| Feature prompt vs Topology prompt | 拓扑 prompt 与特征 prompt 互补 |
关键发现¶
- 在 4 种预训练策略(GraphCL, SimGRACE, LP-GPPT, LP-GraphPrompt)下一致超越所有基线
- Theorem 2 理论证明:edge rewiring 可增大类间表示距离 \(\text{Dist}' = \frac{p+q}{|p-q|} \text{Dist} > \text{Dist}\)
- 拓扑 prompt 额外计算开销很小:\(O(D^2 d_l^2)\) vs GNN 的 \(O(KD^2 d_l^2)\)
亮点与洞察¶
- 首次探索拓扑维度的 graph prompting:之前所有工作都只做 feature prompt,本文填补了拓扑方向的空白。
- Gumbel-Softmax + 熵正则化的搭配很巧妙:用 Gumbel-Softmax 实现可微边选择,用熵正则化保证训练后边概率趋向确定性,推理时拓扑稳定。
- 理论保证:基于 CSBM 模型证明 topology prompting 可增大类间距离,是严格的理论支撑。
局限与展望¶
- 仅支持节点分类:当前框架聚焦于节点级任务,图级和边级任务的拓扑 prompt 设计待探索
- 5-shot 设定:极低标注量下效果好,但全监督场景下是否仍有优势未验证
- 子图约束带来的信息损失:\(\rho=2\) 的限制可能错过重要的长程连接
- 可改进:将 topology prompt 与 feature prompt 联合优化;探索自适应 \(\rho\)
相关工作与启发¶
- vs GPF/All-in-one: 这些方法只修改节点特征,GraphTOP 修改拓扑结构,两者正交互补
- vs 图结构学习 (GSL): GSL 同样修改图结构但需要端到端训练 GNN,GraphTOP 保持 GNN 冻结更高效
评分¶
- 新颖性: ⭐⭐⭐⭐⭐ 首次将 graph prompting 拓展到拓扑维度
- 实验充分度: ⭐⭐⭐⭐ 5 数据集 × 4 预训练策略,但仅做了节点分类
- 写作质量: ⭐⭐⭐⭐ 理论分析清晰,符号较多但组织合理
- 价值: ⭐⭐⭐⭐ 为 graph prompting 开辟了新方向,有实际应用潜力