ResNet改进(2):添加Transformer注意力

1.Transformer注意力

注意力模块(Attention Module)是深度学习中一种重要的机制,旨在让模型在处理输入数据时能够动态地关注最重要的部分。它最初在自然语言处理(NLP)领域被提出,并逐渐扩展到计算机视觉、语音识别等多个领域。

核心思想:注意力机制的核心思想是模仿人类的注意力分配方式,即根据任务需求动态地关注输入数据的不同部分。通过计算权重,模型可以决定哪些部分的信息对当前任务更为重要。

主要类型:
1. 全局注意力(Global Attention): 关注整个输入序列的所有部分。适用于需要全局信息的任务,如机器翻译。

2. 局部注意力(Local Attention):只关注输入序列的一部分。适用于长序列任务,减少计算复杂度。

3. 自注意力(Self-Attention):输入序列内部的元素相互关注。广泛应用于Transformer模型。

4. 多头注意力(Multi-Head Attention):通过多个注意力头并行处理输入,捕捉不同子空间的信息。增强模型的表达能力。

计算步骤:
1. 计算注意力分数:通过查询(Query)、键(Key)和值(Value)计算注意力分数,通常使用点积或加性注意力。

2. 归一化:使用Softmax函数将分数转换为概率分

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

点我头像干啥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值