AgentDropout: Dynamic Agent Elimination for Token-Efficient and High-Performance LLM-Based Multi-Agent Collaboration¶
会议: ACL 2025
arXiv: 2503.18891
代码: https://github.com/wangzx1219/AgentDropout
领域: LLM/NLP
关键词: 多智能体协作、通信拓扑优化、节点剪枝、边剪枝、Token效率
一句话总结¶
本文提出AgentDropout,通过在每轮通信中动态删除冗余Agent节点和通信边来优化多智能体系统的通信拓扑,相比SOTA方法平均减少21.6%的prompt token消耗和18.4%的completion token消耗,同时性能提升1.14分。
研究背景与动机¶
领域现状:基于LLM的多智能体系统(MAS)通过让多个Agent相互通信协作来解决复杂任务,已在推理、数学和代码生成等任务上展现了巨大潜力。MAS的通信结构通常建模为有向图,节点代表Agent,边代表通信路径。
现有痛点:MAS面临两大核心问题:(1)高token消耗——多个Agent之间频繁的消息生成和传递带来巨大的token开销;(2)冗余通信——并非所有Agent间的信息交换都对最终结果有正向贡献。AgentPrune等方法通过剪枝冗余边来减少通信,但它在所有通信轮次中使用固定参与角色,限制了优化效果。
核心矛盾:现有方法只考虑了"哪些通信是冗余的"(边剪枝),忽略了"哪些Agent角色是冗余的"(节点剪枝)。不同讨论阶段可能需要不同的Agent组合,固定角色分配无法适应任务的动态需求。
本文目标:同时优化Agent角色分配和通信路径,在每轮讨论中动态调整参与的Agent及其通信方式。
切入角度:借鉴管理学中高效团队动态调整角色和协作方式的理论,将多智能体系统类比为人类团队,不同阶段让最适合的成员参与讨论。
核心 idea:通过Node Dropout(删除冗余Agent)和Edge Dropout(删除冗余通信边)两步优化策略,动态调整MAS的通信拓扑以提升效率和性能。
方法详解¶
整体框架¶
AgentDropout将MAS的通信结构建模为多轮有向图。输入是一组Agent和它们的通信拓扑,输出是每轮优化后的通信图。方法分为两个阶段:首先通过Node Dropout确定每轮应该参与的Agent子集,然后通过Edge Dropout进一步剪枝Agent间的冗余通信边。
关键设计¶
-
Node Dropout(节点剪枝):
- 功能:在每轮通信中移除贡献最小的Agent节点
- 核心思路:首先将通信图的邻接矩阵初始化为可训练的连续权重矩阵(权重范围0-1)。通过策略梯度方法优化轮内邻接矩阵,目标是最大化任务性能。优化后,计算每个节点在每轮中的加权入度和出度之和,使用TopkNodes函数保留度数最大的 \(k = (1-\alpha) \times N\) 个节点,删除其余节点及其关联的所有边。这里 \(\alpha\) 是节点dropout率
- 设计动机:不同讨论阶段需要不同的专业角色。例如在代码任务中,第一轮可能需要架构师,第二轮需要具体编码者。固定角色会导致某些Agent在特定阶段"白占"token预算
-
Edge Dropout(边剪枝):
- 功能:在节点裁剪后的图上进一步删除低贡献的通信边
- 核心思路:在Node Dropout之后,使用相同的策略梯度优化方法训练轮内和轮间邻接矩阵。重新训练后,根据优化后的边权重,使用top-k选择保留最重要的边,删除权重较低的边以获得更稀疏的通信图。最终得到每轮参与Agent不同、通信路径不同的动态拓扑
- 设计动机:即使确定了每轮参与的Agent,它们之间也不需要全连接通信。某些信息传递路径可能是冗余的或有害的(如传递错误信息)
-
DAGSample采样算法:
- 功能:从概率化的邻接矩阵中采样离散通信图,保证有向无环
- 核心思路:以每条边的权重作为采样概率独立采样,并通过后处理确保采样结果是有向无环图(DAG)。这保证了Agent间的通信不会形成死循环
- 设计动机:通信图需要有向无环才能保证消息传递的正确顺序,随机采样可能生成有环图
损失函数 / 训练策略¶
采用策略梯度(REINFORCE)方法优化邻接矩阵。对每个训练样本采样 \(M\) 个通信图,评估其在任务上的性能得分 \(\mu(\mathcal{G}_m)\),通过概率加权平均近似期望梯度进行优化。使用gradient ascent更新邻接矩阵权重。
实验关键数据¶
主实验¶
| 方法 | 边剪枝 | 节点剪枝 | MMLU | GSM8K | HumanEval | 平均 |
|---|---|---|---|---|---|---|
| Vanilla MAS (T轮) | ✗ | ✗ | 60.13 | 71.48 | 49.17 | 65.72 |
| AgentPrune | ✓ | ✗ | 60.78 | 71.02 | 51.67 | 66.51 |
| AgentDropout | ✓ | ✓ | 62.75 | 73.13 | 55.84 | 68.70 |
在Qwen2.5-72B上:
| 方法 | 边剪枝 | 节点剪枝 | MMLU | GSM8K | HumanEval | 平均 |
|---|---|---|---|---|---|---|
| Vanilla MAS (T轮) | ✗ | ✗ | 84.31 | 93.28 | 87.08 | 90.76 |
| AgentPrune | ✓ | ✗ | 83.66 | 93.67 | 86.67 | 90.81 |
| AgentDropout | ✓ | ✓ | 84.97 | 93.75 | 87.92 | 91.58 |
消融实验¶
| 配置 | 平均性能 | Prompt Token减少 | 说明 |
|---|---|---|---|
| Full AgentDropout | 68.70 | -21.6% | 完整模型 |
| 仅Edge Dropout | 66.51 | -14.2% | 等同AgentPrune |
| 仅Node Dropout | 67.80 | -18.3% | 节点裁剪贡献更大 |
| 无优化 | 65.72 | 0% | 原始MAS |
关键发现¶
- Node Dropout的贡献大于Edge Dropout,表明"谁参与讨论"比"谁和谁沟通"更重要
- 在更大更强的模型(如Qwen2.5-72B、DeepSeek-V3)上,AgentDropout仍能带来显著提升,说明即使模型能力已经很强,通信拓扑优化仍有价值
- 领域迁移性良好——在一个任务上学到的通信拓扑可以迁移到其他任务
- 结构鲁棒性强——即使初始拓扑结构变化,优化后的结果趋向一致
亮点与洞察¶
- 将Dropout从神经网络正则化迁移到多智能体系统拓扑优化中,概念简洁而有效。这种类比思维将Agent类比为神经元,通信边类比为连接权重,自然地复用了Dropout的正则化效果
- 动态角色分配的思想源于管理学理论,这种跨学科启发值得借鉴。高效团队确实需要根据任务阶段动态调整成员角色
- 方法具有很好的即插即用特性——可以应用于任何基于通信图的MAS框架,无需修改底层LLM
局限与展望¶
- 训练通信拓扑需要多次LLM推理(M次采样 × 多轮训练),计算成本较高
- 节点dropout率 \(\alpha\) 是一个需要调优的超参数,不同任务可能需要不同设置
- 当前方法假设所有Agent使用相同的LLM,对异构Agent系统的优化尚未探索
- 仅在非对话类任务上验证,对于需要所有角色持续参与的场景(如辩论)可能不适用
相关工作与启发¶
- vs AgentPrune: AgentPrune只做边剪枝且跨轮使用相同策略,AgentDropout同时做节点和边剪枝且每轮动态调整,性能和效率均更优
- vs GPTSwarm: GPTSwarm通过图神经网络优化MAS结构,但需要训练额外的GNN。AgentDropout直接优化邻接矩阵,更简洁
- vs DyLAN: DyLAN通过动态选择Agent来提升LLM推理,但没有考虑通信边的优化
评分¶
- 新颖性: ⭐⭐⭐⭐ Dropout思想迁移到MAS拓扑优化很有创意,但整体是已有技术的组合
- 实验充分度: ⭐⭐⭐⭐⭐ 覆盖三种基座模型、六个数据集,消融和迁移实验充分
- 写作质量: ⭐⭐⭐⭐ 方法描述清晰,动机阐述有说服力
- 价值: ⭐⭐⭐⭐ 为MAS效率优化提供了实用方案,开源代码促进复现