活动介绍

注意力机制与Transformer架构详解

立即解锁
发布时间: 2025-09-01 00:49:16 阅读量: 6 订阅数: 43 AIGC
# 注意力机制与Transformer架构详解 ## 一、Seq2Seq模型基础与改进 ### 1.1 公式元素详解 在深入探讨注意力机制之前,我们先了解一些基础公式元素: - \(P(y_1…y_{T′} | x_1…x_T)\):这是条件概率,其中 \((x_1…x_T)\) 是长度为 \(T\) 的输入序列,\((y_1…y_{T′})\) 是长度为 \(T'\) 的输出序列。 - \(v\):输入序列的固定长度编码(思想向量)。 - \(P(y_{T′} | v, y_1…y_{T′ - 1})\):给定先前的单词 \(y\) 以及思想向量 \(v\) 时,输出单词 \(y_{T′}\) 的概率。 ### 1.2 Seq2Seq模型的改进技巧 原始的Seq2Seq论文引入了一些技巧来增强模型的训练和性能: - **独立的编码器和解码器**:编码器和解码器是两个独立的LSTM。在机器翻译中,这使得可以使用相同的编码器为不同的语言训练不同的解码器。 - **反转输入序列**:将输入序列反向输入到解码器。例如,\([A,B,C] -> [W,X,Y,Z]\) 会变成 \([C,B,A] -> [W,X,Y,Z]\)。虽然没有明确的解释为什么这样做有效,但作者认为,由于这是一个逐步的模型,如果序列按正常顺序排列,源句子中的每个源单词与输出句子中对应的单词距离会很远。反转输入序列后,输入/输出单词之间的平均距离不会改变,但第一个输入单词会与第一个输出单词非常接近,这有助于模型在输入和输出序列之间建立更好的通信。然而,这种改进也说明了RNN(即使是LSTM或GRU)隐藏状态的不足,即较新的序列元素会抑制较旧元素的可用信息。 ## 二、注意力机制的迭代发展 ### 2.1 Bahdanau注意力 Bahdanau注意力是注意力机制的首次迭代,它扩展了Seq2Seq模型,使解码器能够处理所有编码器的隐藏状态,而不仅仅是最后一个。它是现有Seq2Seq模型的补充,而不是一个独立的实体。 #### 2.1.1 工作原理 注意力机制通过在编码器和解码器之间插入一个额外的上下文向量 \(c_t\) 来工作。时间 \(t\) 时的解码器隐藏状态 \(s_t\) 现在不仅是步骤 \(t - 1\) 时的隐藏状态和解码器输出的函数,也是上下文向量 \(c_t\) 的函数: \(s_t = f(s_{t - 1}, y_{t - 1}, c_t)\) 每个解码器步骤都有一个唯一的上下文向量,一个解码器步骤的上下文向量只是所有编码器隐藏状态的加权和: \(c_t = \sum_{i = 1}^{T} \alpha_{t,i} h_i\) 其中: - \(c_t\):在总共 \(T'\) 个输出步骤中,解码器输出步骤 \(t\) 的上下文向量。 - \(h_i\):在总共 \(T\) 个输入步骤中,编码器步骤 \(i\) 的隐藏状态向量。 - \(\alpha_{t,i}\):在当前解码器步骤 \(t\) 的上下文中,与 \(h_i\) 相关联的标量权重。 #### 2.1.2 权重计算 权重 \(\alpha_{t,i}\) 的计算方法如下: - 首先,解码器在步骤 \(t\) 时所有 \(\alpha_{t,i}\) 权重的总和为1。我们可以通过在注意力机制上应用softmax操作来实现这一点: \(\alpha_{t,i} = \frac{exp(e_{t,i})}{\sum_{j = 1}^{T} exp(e_{t,j})} = softmax(e_{t,i} / e_t)\) 其中,\(e_{t,i}\) 是一个对齐分数,它表示输入序列中位置 \(i\) 周围的元素与位置 \(t\) 处的输出匹配(或对齐)的程度。这个分数基于前一个解码器状态 \(s_{t - 1}\) 以及编码器状态 \(h_i\): \(e_{t,i} = a(s_{t - 1}, h_i)\) 这里的 \(a\) 是一个可微函数,它与系统的其余部分一起通过反向传播进行训练。论文作者选择了所谓的加法注意力,它有两种形式: - \(e_{t,i} = a(s_{t - 1}, h_i) = v^{\top} tanh(W[h_i; s_{t - 1}])\) - \(e_{t,i} = a(s_{t - 1}, h_i) = v^{\top} tanh(W_1 h_i + W_2 s_{t - 1})\) #### 2.1.3 算法步骤总结 Bahdanau注意力算法的步骤如下: 1. 将输入序列输入到编码器中,并计算一组隐藏状态 \(H = \{h_1, h_2…h_T\}\)。 2. 计算对齐分数 \(e_{t,i} = a(s_{t - 1}, h_i)\),使用前一个步骤的解码器状态 \(s_{t - 1}\)。如果 \(t = 1\),我们将使用最后一个编码器状态 \(h_T\) 作为初始隐藏状态。 3. 计算权重 \(\alpha_{t,i} = softmax(e_{t,i} / e_t)\)。 4. 计算上下文向量 \(c_t = \sum_{i = 1}^{T} \alpha_{t,i} h_i\)。 5. 基于连接的向量 \(s_{t - 1}\) 和 \(c_t\) 以及前一个解码器输出 \(y_{t - 1}\),计算隐藏状态 \(s_t = RNN_{decoder}([s_{t - 1}; c_t], y_{t - 1})\)。此时,我们可以计算最终输出 \(y_t\)。如果我们需要对下一个单词进行分类,我们将使用softmax输出 \(y_t = softmax(W_y s_t)\),其中 \(W_y\) 是一个权重矩阵。 6. 重复步骤2到5,直到序列结束。 ### 2.2 Luong注意力 Luong注意力在Bahdanau注意力的基础上进行了一些改进。最显著的是,对齐分数取决于解码器的隐藏状态 \(s_t\),而不是Bahdanau注意力中的 \(s_{t - 1}\)。 #### 2.2.1 算法步骤 Luong注意力的执行步骤如下: 1. 将输入序列输入到编码器中,并计算一组编码器隐藏状态 \(H = \{h_1, h_2…h_T\}\)。 2. \(s_t = RNN_{decoder}(s_{t - 1}, y_{t - 1})\):基于前一个解码器的隐藏状态 \(s_{t - 1}\) 和前一个解码器的输出 \(y_{t - 1}\) 计算解码器的隐藏状态(不过不包括上下文向量)。 3. \(e_{t,i} = a(s_t, h_i)\):计算对齐分数,使用当前步骤的解码器状态 \(s_t\)。除了加法注意力,Luong注意力论文还提出了两种乘法注意力: - \(e_{t,i} = s_t^{\top} h_i\):无任何参数的点积。在这种情况下,向量 \(s\) 和 \(h\)(表示为列矩阵和行矩阵)需要具有相同的大小。 - \(e_{t,i} = s_t^{\top} W_m h_i\):这里的 \(W_m\) 是注意力层的可训练权重矩阵。 4. \(\alpha_{t,i} = softmax(e_{t,i} / e_t)\):计算权重。 5. \(c_t = \sum_{i = 1}^{T} \alpha_{t,i} h_i\):计算上下文向量。 6. \(\tilde{s}_t = tanh(W_c[c_t; s_t])\):基于连接的向量 \(c_t\) 和 \(s_t\) 计算中间向量。此时,我们可以计算最终输出 \(y_t\)。在分类的情况下,我们将使用softmax \(y_t = softmax(W_y \tilde{s}_t)\),其中 \(W_y\) 是一个权重矩阵。 7. 重复步骤2到6,直到序列结束。 ### 2.3 通用注意力 通用注意力是一种通用的深度学习技术,它从一个查询 \(q\) 开始,对键值对数据库 \(k\) 和 \(v_k\) 执行查询。每个键 \(k_n\) 都有一个对应的单一
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

张_伟_杰

人工智能专家
人工智能和大数据领域有超过10年的工作经验,拥有深厚的技术功底,曾先后就职于多家知名科技公司。职业生涯中,曾担任人工智能工程师和数据科学家,负责开发和优化各种人工智能和大数据应用。在人工智能算法和技术,包括机器学习、深度学习、自然语言处理等领域有一定的研究
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

利用Kaen实现PyTorch分布式训练及超参数优化

### 利用Kaen实现PyTorch分布式训练及超参数优化 #### 1. 启用PyTorch分布式训练支持 在进行模型训练时,我们可以使用Kaen框架来支持PyTorch的分布式训练。以下是相关代码示例: ```python train_glob = os.environ['KAEN_OSDS_TRAIN_GLOB'] if 'KAEN_OSDS_TRAIN_GLOB' in os.environ else 'https://raw.githubusercontent.com/osipov/smlbook/master/train.csv' val_glob = os.environ['

电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模

# 电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模 ## 1. 锁相环(PLL) ### 1.1 锁相环原理 锁相环(PLL)是一种控制算法,用于确定正弦输入的频率和相位角。它主要用于两个系统之间的频率匹配,匹配完成后会存在一个恒定的相位差,从而实现相位“锁定”。PLL由相位检测机制、PID控制器和用于生成相位角信息的振荡器组成。此外,系统中还包含一个低通滤波器,用于获取正弦输入的频率信息。在柔性交流输电系统(FACTS)设备中,PLL增益对稳定系统性能起着至关重要的作用。 ### 1.2 Simulink环境下的PLL设置 为了直观展示PLL如何反映频率和相位的变化

模型生产化:从本地部署到云端容器化

# 模型生产化:从本地部署到云端容器化 ## 1. 引入 FastAPI 在将模型投入生产的过程中,我们首先要安装 FastAPI。由于 FastAPI 是一个 Python 模块,我们可以使用 pip 进行安装。打开一个新的终端,运行以下命令: ```bash $ pip install fastapi uvicorn aiofiles jinja2 ``` 这里我们安装了一些 FastAPI 所需的额外依赖项。uvicorn 是一个用于设置 API 的底层服务器/应用程序接口,而 aiofiles 则使服务器能够异步处理请求,例如同时接受和响应多个独立的并行请求。这两个模块是 FastA

使用PyTorch构建电影推荐系统

### 使用 PyTorch 构建电影推荐系统 在当今数字化时代,推荐系统在各个领域都发挥着至关重要的作用,尤其是在电影推荐领域。本文将详细介绍如何使用 PyTorch 构建一个电影推荐系统,从数据处理到模型训练,再到最终的推荐生成,为你呈现一个完整的推荐系统构建流程。 #### 1. 数据探索与处理 首先,我们需要对 MovieLens 数据集进行探索和处理。该数据集包含用户对电影的评分信息,其中存在一些缺失的评分值,用 NaN 表示。我们的目标是利用非空评分训练推荐系统,并预测这些缺失的评分,从而为每个用户生成电影推荐。 以下是处理数据集的代码: ```python import p

模糊推理系统对象介绍

# 模糊推理系统对象介绍 ## 1. fistree 对象 ### 1.1 概述 fistree 对象用于表示相互连接的模糊推理系统树。通过它可以创建一个相互关联的模糊推理系统网络。 ### 1.2 创建方法 可以使用以下语法创建 fistree 对象: ```matlab fisTree = fistree(fis,connections) fisTree = fistree( ___ ,'DisableStructuralChecks',disableChecks) ``` - `fisTree = fistree(fis,connections)`:创建一个相互连接的模糊推理系统对象

利用PyTorch进行快速原型开发

### 利用 PyTorch 进行快速原型开发 在深度学习领域,快速搭建和验证模型是非常重要的。本文将介绍两个基于 PyTorch 的高级库:fast.ai 和 PyTorch Lightning,它们可以帮助我们更高效地进行模型的训练和评估。 #### 1. 使用 fast.ai 进行模型训练和评估 fast.ai 是一个基于 PyTorch 的高级库,它可以让我们在几分钟内完成模型的训练设置。下面是使用 fast.ai 训练和评估手写数字分类模型的步骤: ##### 1.1 模型训练日志分析 在训练过程中,我们可以看到冻结网络的第一个训练周期,然后是解冻网络的两个后续训练周期。日志中

强化学习与合成数据生成:UnityML-Agents深度解析

# 强化学习与合成数据生成:Unity ML - Agents 深度解析 ## 1. 好奇心奖励与超参数设置 在强化学习中,为了激发智能体的好奇心,可以传递与外在奖励相同的超参数。具体如下: - **好奇心奖励信号超参数**: - `reward_signals->curiosity->strength`:用于平衡好奇心奖励与其他奖励(如外在奖励)的缩放系数,取值范围在 0.0 到 1.0 之间。 - `reward_signals->curiosity->gamma`:根据奖励实现所需的时间来调整奖励感知价值的第二个缩放系数,与外在奖励的 `gamma` 类似,取值范围也在

二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决

### 二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决 #### 1. 二维和三维偏微分方程耦合求解 在求解二维和三维偏微分方程时,有几个具体的问题和解决方法值得探讨。 ##### 1.1 获取相同网格点的 v 值 要在与 u 相同的网格点上获取 v 值,可以输入以下命令: ```matlab >> T_table=tri2grid(p,t,u(length(p)+1:end,end),x,y) ``` 示例结果如下: ``` T_table = 0.6579 0.5915 0.5968 0.6582 0 0.6042 0.4892 0.5073 0.6234 0 0.543

排行榜接入全攻略:第三方SDK集成实战详解

![cocos2d-x 塔防游戏源码](https://docs.godotengine.org/en/3.1/_images/ui_mockup_break_down.png) # 1. 排行榜系统概述与应用场景 在现代互联网应用中,排行榜系统已成为增强用户参与感和提升活跃度的重要工具。无论是在游戏、社交、电商,还是内容平台中,排行榜都能有效激发用户的竞争意识与社交互动。排行榜系统不仅展示用户之间的排名关系,还承载着数据聚合、实时更新、多维度统计等复杂功能。本章将从排行榜的基本概念出发,探讨其在不同业务场景中的典型应用,并为后续技术实现打下理论基础。 # 2. 排行榜技术原理与架构设计

多视图检测与多模态数据融合实验研究

# 多视图检测与多模态数据融合实验研究 ## 1. 多视图检测实验 ### 1.1 实验数据集 实验参考了Wildtrack数据集和MultiviewX数据集,这两个数据集的特点如下表所示: | 数据集 | 相机数量 | 分辨率 | 帧数 | 区域面积 | | ---- | ---- | ---- | ---- | ---- | | Wildtrack | 7 | 1080×1920 | 400 | 12×36 m² | | MultiviewX | 6 | 1080×1920 | 400 | 16×25 m² | ### 1.2 评估指标 为了评估算法,使用了精度(Precision)、