01-注意力机制详解:大模型如何决定"该关注什么"?
作者:互联网
2026-04-11
从Token预测说起
大语言模型的核心工作原理非常简单:给定前面的0到n个Token,预测第n+1个Token是什么。
举个例子:
- 输入:"今天天气"
- 模型需要预测下一个词可能是:"很好"、"不错"、"真热" 等
但问题来了:当我们要预测下一个Token时,前面的每个Token对当前预测的重要程度是不同的。
比如在句子 "我昨天在北京吃了烤鸭,今天在上海吃了_" 中:
- 要预测最后一个词时,"上海"这个Token显然比"昨天"、"北京"更重要
- 因为我们需要根据"上海"来推测当地的特色美食
注意力机制就是用来解决这个问题的:让模型自动学习,在预测当前Token时,应该把"注意力"放在前面哪些Token上。
注意力机制的核心思想
注意力机制的核心可以用一句话概括:
具体来说,分为三个步骤:
- 计算相关性:当前Token与历史每个Token的相关程度
- 归一化权重:把相关性转换为概率分布(加起来等于1)
- 加权求和:用这些权重对历史Token的信息进行加权平均
QKV矩阵:注意力机制的三个核心角色
为了实现上述思想,注意力机制引入了三个矩阵:Q(Query)、K(Key)、V(Value)
可以用"图书馆查书"来类比理解:
- Q(Query,查询):你想查的内容,比如"我想找关于上海美食的信息"
- K(Key,键):每本书的目录/索引,用来匹配你的查询
- V(Value,值):每本书的实际内容
从Embedding到QKV
每个Token首先被转换为一个Embedding向量(通常是一个高维向量,比如768维或4096维)。假设:
- 输入序列长度为
n(有n个Token) - 每个Token的Embedding维度为
d_model(比如768)
那么输入可以表示为一个矩阵:
其中每一行代表一个Token的Embedding向量。
d_model 到底是什么?
d_model 就是Token向量的维度。更具体地说:
- 输入层:每个Token通过Embedding层转换为一个
d_model维的向量 - 中间层:这个维度会贯穿整个Transformer的所有层,每一层的输入和输出都保持
d_model维 - 输出层:最后一层的输出也是每个Token一个
d_model维的向量
举个例子:
输入文本:"猫 吃 鱼"(3个Token)
经过Embedding后:
- Token "猫": ← 768维向量
- Token "吃": ← 768维向量
- Token "鱼": ← 768维向量
整体表示为矩阵
d_model 在实际模型中的取值:
不同规模的模型,d_model 差异很大:
| 模型规模 | d_model | 典型模型 |
|---|---|---|
| 小型模型 | 768 | BERT-Base, GPT-2 Small |
| 中型模型 | 1024-1280 | BERT-Large, GPT-2 Medium |
| 大型模型 | 1600-5120 | GPT-3 (1.3B-13B), LLaMA-7B/13B |
| 超大型模型 | 6656-12288 | LLaMA-65B, GPT-3 (175B) |
选择 的原则:
- 必须是64的倍数:方便GPU计算优化(, )
- 能被注意力头数整除:比如 , ,每个头维度
- 维度越大,表达能力越强:但参数量和计算量会显著增加
接下来,我们通过三个可学习的权重矩阵,将X分别转换为Q、K、V:
参数解释:
- 是三个权重矩阵,在训练过程中学习得到
- 是Q和K的维度(通常等于 ,其中是多头注意力的头数)
- 是V的维度(通常也等于 )
- 在单头注意力中,通常
变换后得到:
注意力计算的完整公式
第一步:计算注意力分数(Attention Scores)
用Q和K的点积来衡量相关性:
参数解释:
- 是矩阵乘法,结果维度为
- 表示第i个Token(查询)与第j个Token(键)的相关性
- 点积越大,说明两个向量越相似,相关性越高
第二步:缩放(Scaling)
为了防止点积结果过大导致梯度消失,除以一个缩放因子:
参数解释:
- 是缩放因子
- 为什么要除以 ?因为当维度很大时,点积的方差会变大,导致softmax后梯度很小
- 这个缩放操作可以让点积的方差稳定在1左右
第三步:应用Softmax归一化
将分数转换为概率分布:
参数解释:
- Softmax函数:
- 作用:把实数分数转换为0-1之间的概率,且所有概率加起来等于1
- 表示第i个Token应该给第j个Token分配多少注意力权重
注意:在实际应用中(如GPT),这里还会加一个掩码(Mask),防止模型看到未来的信息:
其中Mask会把未来位置的分数设为负无穷,使得softmax后权重为0。
第四步:加权求和
用注意力权重对V进行加权求和:
参数解释:
- 是第i个Token的输出表示,它是所有Token的V向量的加权平均
- 权重就是该Token对其他Token的注意力分数
完整公式(Scaled Dot-Product Attention)
将上述步骤合并,得到注意力机制的标准公式:
这就是Transformer论文中最著名的公式!
具体例子:理解注意力权重
假设我们有一个简单的句子:"猫 吃 鱼",共3个Token。
第一步:生成QKV
输入 X:
Token 1: [0.1, 0.2, 0.3, 0.4] # "猫"的Embedding
Token 2: [0.5, 0.6, 0.7, 0.8] # "吃"的Embedding
Token 3: [0.2, 0.3, 0.1, 0.5] # "鱼"的Embedding
通过 W_Q, W_K, W_V 变换后得到 Q, K, V(这里简化为2维)
Q: [[q1_1, q1_2], [q2_1, q2_2], [q3_1, q3_2]]
K: [[k1_1, k1_2], [k2_1, k2_2], [k3_1, k3_2]]
V: [[v1_1, v1_2], [v2_1, v2_2], [v3_1, v3_2]]
第二步:计算注意力分数
Scores = Q · K^T
得到一个 3×3 的矩阵:
Token1 Token2 Token3
Token1: [s1_1 s1_2 s1_3] # Token1与所有Token的相关性
Token2: [s2_1 s2_2 s2_3] # Token2与所有Token的相关性
Token3: [s3_1 s3_2 s3_3] # Token3与所有Token的相关性
第三步:Softmax归一化
对每一行应用Softmax,得到注意力权重:
Token1 Token2 Token3
Token1: [0.2 0.3 0.5] # Token1应该关注各Token的权重(和为1)
Token2: [0.1 0.6 0.3] # Token2应该关注各Token的权重(和为1)
Token3: [0.3 0.5 0.2] # Token3应该关注各Token的权重(和为1)
比如Token3("鱼")对Token2("吃")的注意力权重是0.5,说明在理解"鱼"时,"吃"这个词很重要。
第四步:加权求和
Output = Attention_Weights · V
每个Token的输出是所有Token的V向量的加权平均
从单头到多头注意力机制(Multi-Head Attention)
为什么需要多头?
单头注意力只能学习一种"注意力模式"。但实际上,理解一个Token可能需要关注多个不同方面:
以句子 "The animal didn't cross the street because it was too tired" 为例:
- 语义关系头:it 指向 animal(代词指代)
- 句法关系头:cross 指向 street(动宾关系)
- 因果关系头:because 关联前后两个分句
单个注意力头无法同时捕捉这些不同类型的关系,因此需要多个注意力头并行工作。
多头注意力的实现
多头注意力的核心思想:使用h个独立的注意力头,每个头学习不同的表示子空间
步骤1:线性投影到多个子空间
将输入X投影到h组不同的Q、K、V:
对于第个头():
参数解释:
- 是注意力头的数量(比如8或16)
- (每个头的维度是总维度的1/h)
- 每个头有自己独立的权重矩阵
- 比如 ,则每个头的维度
步骤2:并行计算h个注意力头
对每个头独立计算注意力:
参数解释:
- 每个
- 个头完全并行计算,互不干扰
- 每个头可以学习关注输入的不同方面
步骤3:拼接并线性变换
将h个头的输出拼接起来,再通过一个线性层:
参数解释:
- 将个头在最后一维拼接:
- 由于 ,所以拼接后维度为
- 是输出权重矩阵
- 最终输出维度:,与输入维度一致
完整的多头注意力公式
参数总结
假设 , :
| 参数 | 形状 | 数量 | 说明 |
|---|---|---|---|
| 12个 | 每个头的Query权重矩阵 | ||
| 12个 | 每个头的Key权重矩阵 | ||
| 12个 | 每个头的Value权重矩阵 | ||
| 1个 | 输出权重矩阵 |
总参数量
多头注意力的优势
- 捕捉多种关系:不同的头可以学习不同类型的依赖关系(语义、句法、位置等)
- 增强表达能力:多个子空间的表示比单一空间更丰富
- 参数效率:虽然有多个头,但每个头的维度变小(),总参数量与单头相当
- 并行计算:个头可以完全并行,提高计算效率
可视化理解
想象你在读一篇文章,理解当前词时:
- 单头注意力:只能用一种方式去理解上下文
- 多头注意力:可以同时从多个角度理解
- 头1:关注句法结构(主谓宾)
- 头2:关注语义关系(同义、反义)
- 头3:关注长距离依赖(代词指代)
- 头4:关注局部搭配(固定词组)
- ...
最后把这些不同角度的理解综合起来,形成对当前词更全面的表示。
小结
- 注意力机制的本质:加权求和,权重由相关性决定
- QKV的作用:
- Q(Query):当前位置的查询向量
- K(Key):用于匹配查询的键向量
- V(Value):实际要加权求和的内容向量
- 核心公式:
- 多头注意力:并行运行多个注意力头,每个头学习不同的表示子空间,最后拼接融合
通过注意力机制,模型能够动态地决定在预测下一个Token时,应该更多地"关注"历史序列中的哪些Token,从而实现更准确的预测。
相关推荐
专题
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
+ 收藏
最新数据
相关文章
卡帕西开源Agent自进化训练框架,5分钟一轮实验,48h内揽星9.5k
装了 OpenClaw 后,信用卡被盗刷了...
cursor带我学习OpenManus 框架
一文带你上手 Skills:构建可复用的 AI 能力体系
我创建了一个全 AI 员工的一人公司
警惕 AI 变革对程序员能力的削弱
Transformer 之戏译“爻悟机”
告别复制粘贴,你需要这8个 MCP 服务器
AI Agent 的"世界观":为什么你的 Agent 总是在"胡说八道"?
LangGraph 系列 · 第 1 讲:从 0 搭建你的第一个智能体
AI精选
