让大模型看懂「高亮标注」:在注意力计算前编辑Key向量,用频谱分解让模型「听你指挥」

想让大模型重点关注提示词里的某句话可没那么容易。

在NLP领域,注意力引导(Attention Steering)是控制大语言模型(LLM)聚焦行为的核心技术之一,其中提示高亮(Prompt Highlighting),即让模型优先关注用户指定的关键文本是一项关键策略。

然而,现有方法因需要显式存储完整注意力矩阵,与FlashAttention等高效实现完全不兼容,带来了严重的延迟与显存瓶颈。

为了攻克这一难题,来自爱丁堡大学的Weixian (Waylon) Li联合华为英国研究所、伦敦玛丽女王大学以及RayNeo的合作者,提出了SEKA(Spectral Editing Key Amplification)及其自适应变体AdaSEKA

该方法另辟蹊径,在注意力计算之前直接编辑Key向量,通过频谱分解学习“相关性子空间”来引导注意力分配,天然兼容FlashAttention,延迟开销几乎为零。目前,该项工作已被人工智能顶级会议ICLR 2026接收。

核心方法:在注意力计算之前改写Key向量

本文提出SEKA(Spectral Editing Key Amplification),其核心思想非常直观:与其在注意力计算之后去修改注意力矩阵,不如在计算之前直接编辑Key向量,从源头引导注意力的分配。

SEKA通过频谱分解学习相关性子空间,在注意力计算之前编辑Key向量;AdaSEKA进一步利用Query向量动态组合多个专家投影。

具体而言,SEKA分为离线学习和在线推理两个阶段:

离线阶段:通过构造对比提示对(正向/负向/中性),提取不同条件下的Key嵌入,并利用奇异值分解(SVD)学习一个“相关性子空间”。这个子空间捕捉了当某些token与问题相关时,Key向量中最显著的变化方向。

在线推理阶段:对需要高亮的token,将其Key向量沿着学到的相关性子空间进行投影和放大,公式简洁优雅:k’ = k + g·P·k,其中P是投影矩阵,g是增益系数。

这一操作在数学上等价于为注意力分数添加了一个低秩偏置项,但因为它完全作用于Key嵌入层面,所以天然兼容FlashAttention等高效实现,无需访问或存储注意力矩阵。

选择性引导:并非所有注意力头都值得干预

SEKA的一个关键设计是:并非对所有KV头施加引导,而是只选择那些对“相关性”敏感的头。

绿色区域集中在中后层,说明“检索”主要分布在这些层,也是SEKA选择性施加引导的依据。

上图展示了Qwen3-8B所有层和KV头的相关性敏感度。绿色区域(高ℓ₂距离)集中在中后层的特定头上,与近期机制分析中发现的“检索头”分布高度吻合。SEKA正是利用这一发现,仅对这些敏感的KV头施加引导,避免干扰其他功能头——消融实验也证实,去掉这一筛选机制会导致性能大幅下降。

进阶方法:AdaSEKA让引导“因题而异”

标准SEKA的投影矩阵是固定的,面对不同类型的任务可能需要手动调参。为此,本文进一步提出了AdaSEKA(Adaptive SEKA),引入多专家路由机制:

针对不同任务(如事实校正、指令遵循等)分别学习多组“专家投影”。

推理时,利用Query向量与各专家子空间的对齐程度,自动计算动态权重,实时组合出最适合当前提示的引导算子。

这一机制无需任何额外训练,计算代价极低,同时显著降低了超参数调优的负担。新的专家可以随时模块化地加入,无需重新计算已有专家。

实验结果

本文在CounterFact(知识冲突)、Bias in Bios(职业提取)、Pronoun Changing(指令遵循)等标准基准上,使用Qwen3(4B/8B/14B)和Gemma3(4B/12B)进行了全面实验。

下表展示了各方法在不同模型上的表现:

SEKA和AdaSEKA在绝大多数设定下排名前二,在CounterFact上将准确率从30-50%提升至接近99%。

效率对比同样亮眼:

SEKA每个样本仅增加0.03秒延迟和0.03 GB显存,效率优势达到PASTA的数十倍,且完全兼容FlashAttention。

SEKA的意义不仅在于一个更高效的注意力引导方法,更在于它揭示了一个重要的发现:大模型的Key嵌入中存在结构化的“相关性子空间”,可以通过简单的频谱分解来发现和利用。

这一发现为理解和控制Transformer的注意力机制提供了新的视角,也为构建更加可控、高效的大语言模型系统打开了新的思路。在长上下文应用日益普及的今天,一个既高效又有效的注意力引导框架具有重要的实用价值。

论文标题:Spectral Attention Steering for Prompt Highlighting

论文链接:https://arxiv.org/abs/2603.01281

代码:https://github.com/waylonli/SEKA

本文来自微信公众号“量子位”,作者:SEKA团队,36氪经授权发布。

发布时间:2026-03-31 16:24