跳转至

📡 信号/通信

🧪 ICML2025 · 6 篇论文解读

📌 同领域跨会议浏览: 💬 ACL2026 (3) · 📷 CVPR2026 (5) · 🔬 ICLR2026 (8) · 🤖 AAAI2026 (3) · 🧠 NeurIPS2025 (13) · 📹 ICCV2025 (3)

🔥 高频主题: LLM ×2

Deep Electromagnetic Structure Design Under Limited Evaluation Budgets

提出 Progressive Quadtree-based Search (PQS) 方法,通过四叉树层次化表示压缩电磁结构的高维设计空间,并利用基于一致性的样本选择机制在有限仿真预算下高效搜索优质设计,相比生成式方法节省 75~85% 的评估成本。

Fourier Position Embedding: Enhancing Attention's Periodic Extension for Length Generalization

通过将 RoPE 中每个维度从单一频率扩展为傅里叶级数表示,并裁剪欠训练的低频分量,实现注意力机制的可靠周期性扩展,从而大幅提升 LLM 的长度泛化能力。

Generative Social Choice: The Next Generation

将生成式社会选择框架扩展至带成本/预算约束和近似查询的场景,提出 DemocraticProcess 算法并给出近乎最优的近似比例代表性理论保证,实现了实用系统 PROSE(基于 GPT-4o)在药物评论和城市治理数据集上验证有效性。

Large Language Model (LLM)-enabled In-context Learning for Wireless Network Optimization

提出基于 LLM 上下文学习(In-context Learning)的基站功率控制算法,通过自然语言任务描述和经验池驱动的示例选择,在不更新模型参数的条件下达到接近传统深度强化学习的性能。

Reward-Augmented Data Enhances Direct Preference Alignment of LLMs

提出一种奖励增强的数据重标注方法,通过将偏好对条件化于奖励分数构建扩增数据集,使DPO能感知回复质量全谱,缓解高质量rejected回复被遗忘和低质量chosen回复被盲目学习的问题,在多个基准上一致性大幅提升DPO性能。

SepLLM: Accelerate Large Language Models by Compressing One Segment into One Separator

提出 SepLLM,利用分隔符 token(标点符号等)天然压缩文本段落信息的特性,仅保留 Initial + Separator + Neighboring 三类 token 的 KV 缓存,在保持性能的同时大幅减少注意力计算和内存占用。