目录
初步探索DeepSeek的设计
核心架构设计
核心原理与优化
关键创新点
典型应用场景
与同类模型的对比优势
未来演进方向
从投入行业生产的角度看
DeepSeek的核心功能扩展
机械电子工程产业中的具体案例
预测性维护
智能质量控制
自动化设计优化
柔性制造与机器人协作
供应链与物流优化
未来趋势:AI与实体产业的深度融合
小结
更进一步分析模型架构
整体架构设计
核心算法创新
动态专家路由算法
稀疏门控注意力(Sparse Gated Attention)
训练策略与工程优化
三阶段渐进训练
显存优化技术
关键创新点总结
对MoE层前向传播的简单代码复现
性能对比
DeepSeek架构–深入代码理解
GPU TPU NPU的区别?
设计目的
硬件架构
计算能力
应用场景
SiLU激活函数,并进一步解释门控神经网络
SiLU 激活函数详解
特性
优点
缺点
与其他激活函数的对比
数学性质
门控机制理解
门控神经网络详解
门控机制的原理
门控神经网络的结构
门控循环单元(GRU)
门控神经网络的应用
deepseek的整体架构
输入与嵌入层
Transformer层
多头注意力(Multi-head Attention with KV Cache)
前馈网络(FFN with SiLU & Parallel)
重复的Transformer层(N)
输出层
MoE的优化与优势
整体架构的效率与性能
Rotary Positional Encodings
RoPE的基本原理
RoPE的实现
RoPE的优势
RoPE与传统位置编码的对比
RoPE在Transformer中的应用
deepseek训练和推理的数据io流程
门控机制?门如何控制专家信息的传递,如何实现路由机制?每个线性层和对应的门是什么关系?
如何理解‘专家的选择是基于每个token进行的,而不是基于每个序列或者批次’?
DeepSeek-V3 重大创新解读
小结
前言
对于人工智能大模型当下的发展阶段,如何落地,并在横向领域发挥出作用成为越来越被关注的话题,笔者的朋友提出了几个问题:DeepSeek的用处除了在信息库里提取提问者需要的有效信息外还有别的功能吗?像这类人工智能有没有跟实体产业,比方说机械电子工程产业的具体结合案例?
对于这几个问题的思考,笔者基于DeepSeek开源的项目和说明文档进行了学习和分析
先一段话回答这几个问题:DeepSeek等人工智能大模型除了从信息库中提取有效信息外,还能进行知识推理、文本生成,同时在计算机视觉、自然语言处理、代码生成和智能应用开发等方面都有很好的表现和发挥空间。在机械电子工程产业中,人工智能的加持可用于故障诊断、生产流程优化、产品设计辅助等方面,比如通过分析设备数据预测故障,或优化生产线调度提高效率,提高生成效率、降低人员作业的安全风险。
初步探索DeepSeek的设计
涉及到对与于transfomer的应用,可以跳转到transfomer官网或者笔者对transfomer的浅显理解
核心架构设计
DeepSeek-R1 的架构基于对传统Transformer的改进,融合了多种高效建模技术,核心方向是降低长序列处理的计算复杂度
混合注意力机制
稀疏注意力(Sparse Attention)
通过限制每个token的注意力范围(如局部窗口或哈希分桶),将复杂度从 O(N2) 降低至 O(NlogN) 或 O(N),同时保留对关键信息的捕捉能力。
动态注意力门控
引入可学习的门控机制,动态决定哪些token需要全局注意力,哪些仅需局部交互,进一步减少冗余计算。
状态空间模型(SSM)的融合
借鉴Mamba等SSM架构,将序列建模转化为隐状态空间中的微分方程,通过硬件优化的并行扫描算法(Parallel Scan)实现长序列的线性复杂度处理。这种设计特别适合处理数万token的超长文本。
层次化分块处理
将输入序列划分为多个块(Chunk),在块内进行细粒度计算,块间通过压缩的上下文向量(如Memory Bank)传递信息,减少长程依赖的计算负担。
核心原理与优化
DeepSeek-R1 的优化围绕效率、质量与成本三角平衡展开:
长上下文建模原理
增量式记忆更新
采用类似Ring Buffer的循环记忆机制,动态维护关键信息,避免传统Transformer因位置编码限制导致的远程信息丢失。
内容感知的token压缩
对低信息量token(如停用词、重复内容)进行合并或剪枝,减少后续计算量。
推理效率优化
动态计算路径(Dynamic Computation Paths)
根据输入复杂度动态选择模型深度或宽度,例如对简单问题使用浅层网络,复杂问题启用全路径计算。
量化与算子融合
采用INT8/FP16混合精度量化,结合自定义CUDA内核实现算子融合(如FlashAttention),显著提升GPU利用率。
训练策略创新
课程学习(Curriculum Learning)
从短文本逐步过渡到长文本训练,帮助模型渐进式学习长程依赖。
合成数据增强
利用自生成的高质量长文本数据,针对性增强模型对复杂上下文的泛化能力。
关键创新点
DeepSeek-R1 的核心创新体现在以下方面:
典型应用场景
超长文档分析**:**支持法律合同审查、学术论文解读等需处理数万token的任务。
持续对话系统**:**在客服场景中维持数百轮对话的上下文一致性。
代码生成与调试**:**通过长上下文理解完整代码库的结构与依赖关系。
与同类模型的对比优势
未来演进方向
万亿级参数扩展**:**探索MoE(Mixture of Experts)架构与高效训练技术的结合。
实时持续学习**:**开发无需全量微调的在线参数更新机制。
具身智能集成**:**与机器人控制系统深度耦合,实现物理世界的因果推理。
从投入行业生产的角度看
DeepSeek的核心功能扩展
复杂决策支持
优化算法:通过多目标优化算法(如遗传算法、粒子群优化)解决工程中的参数调优问题,例如机械结构轻量化设计或电路能耗优化。
仿真加速:结合物理仿真软件(如ANSYS、MATLAB),AI可快速生成仿真参数组合,缩短设计验证周期。
生成式设计
基于约束条件(如材料强度、空间限制)自动生成机械部件设计方案,如Autodesk的生成设计工具已用于航空航天零件的拓扑优化。
实时控制与自适应系统
在工业机器人中应用强化学习(RL),使机械臂具备动态环境下的路径规划能力,如ABB的YuMi机器人通过AI实现柔性装配。
知识图谱与故障推理
构建设备故障知识图谱,结合时序数据分析(如振动信号、温度曲线),实现故障根因定位。例如西门子燃气轮机通过AI诊断叶片裂纹成因。
机械电子工程产业中的具体案例
预测性维护
案例:通用电气(GE)航空发动机
GE利用AI分析发动机传感器数据(如转速、温度、振动),预测轴承磨损周期,将非计划停机减少30%,维修成本降低25%。
技术细节:采用LSTM网络处理时序数据,结合生存分析模型(Survival Analysis)估算剩余使用寿命(RUL)。
智能质量控制
案例:特斯拉上海工厂的视觉检测系统
在车身焊接环节,基于深度学习的视觉系统(如YOLOv5)检测焊点质量,误检率低于0.5%,较传统光学检测效率提升5倍。
技术细节:采用迁移学习(Transfer Learning),在少量标注数据下训练高精度模型,适应产线快速换型需求。
自动化设计优化
案例:宝马轻量化底盘设计
利用生成式AI工具生成符合刚度、重量目标的底盘结构,最终设计减重15%的同时通过碰撞测试。
技术细节:结合有限元分析(FEA)与对抗生成网络(GAN),探索非直觉设计拓扑。
柔性制造与机器人协作
案例:富士康的AI柔性生产线
在iPhone产线中,AI动态调度机械臂与AGV小车,实现多型号产品混线生产,换线时间从2小时缩短至10分钟。
技术细节:基于深度强化学习的多智能体协同算法,优化资源分配与路径规划。
供应链与物流优化
案例:博世(Bosch)供应链智能调度
AI模型整合市场需求、供应商数据与产能限制,实现全球30+工厂的零部件动态调度,库存周转率提升22%。
技术细节:混合整数规划(MIP)与图神经网络(GNN)结合,处理多层级供应链复杂约束。
未来趋势:AI与实体产业的深度融合
数字孪生: 物理设备与虚拟模型的实时交互,如施耐德电气利用数字孪生优化水处理厂能效。
自主化工业机器人:基于多模态感知(视觉、力觉、触觉)的协作机器人,如FANUC的AI驱动机器人实现复杂电子元件装配。
边缘智能:在设备端部署轻量化模型(如TinyML),实时响应控制指令,减少云端依赖。
小结
DeepSeek类多模态AI大模型在机械电子工程中的价值已从“信息处理”升级为“系统级赋能”,覆盖设计、生产、维护全生命周期。其核心在于数据驱动决策与物理世界交互的结合,未来随着工业5.0推进,AI将进一步成为智能制造的基础设施。
更进一步分析模型架构
整体架构设计
DeepSeek-R1 采用 分层混合专家系统(Hierarchical MoE) 与 动态稀疏计算 结合的架构,整体分为4层:
`class DeepSeekR1(nn.Module): def __init__(self): super().__init__() self.embedding = DynamicEmbedding(dim=1280) # 动态嵌入层 self.encoder_layers = nn.ModuleList([ HierarchicalMoELayer(dim=1280, num_experts=16, top_k=4) for _ in range(24) ]) # 24层混合专家编码器 self.cross_modal_fuser = SparseAttentionFusion() # 跨模态稀疏融合模块 self.decoder = TaskAdaptiveDecoder() # 任务自适应解码头`
动态嵌入层DynamicEmbedding:根据输入模态(文本/图像/传感器数据)动态调整嵌入策略,共享部分参数以减少冗余。
分层MoE编码器nn.ModuleList:每层包含16个专家网络,每个Token动态选择top-4专家,通过门控权重聚合输出。
跨模态稀疏融合SparseAttentionFusion:使用稀疏注意力机制实现多模态数据的高效交互,计算复杂度从O(N²)降至O(N logN)。
任务自适应解码头TaskAdaptiveDecoder:根据下游任务动态加载轻量级适配器(Adapter),避免全参数微调。
核心算法创新
动态专家路由算法
传统MoE模型的路由器通常基于全连接层,DeepSeek-R1引入 低秩自适应路由(LoRA-Router):
`class LoRA_Router(nn.Module): def __init__(self, dim, num_experts, rank=8): super().__init__() self.lora_A = nn.Parameter(torch.randn(dim, rank)) # 低秩矩阵A self.lora_B = nn.Parameter(torch.zeros(rank, num_experts)) # 低秩矩阵B def forward(self, x): # x形状: [batch_size, seq_len, dim] logits = x @ self.lora_A @ self.lora_B # 低秩近似 return torch.softmax(logits, dim=-1) # 专家概率分布`
优势:相比传统路由参数减少90%,同时通过低秩分解缓解专家选择偏差。
路由稳定性:引入负载均衡损失(Load Balancing Loss),确保专家利用率均衡:
`def load_balancing_loss(expert_gates): # expert_gates形状: [batch*seq_len, num_experts] expert_mask = (expert_gates > 0).float() expert_load = expert_mask.mean(dim=0) # 每个专家的平均负载 return torch.std(expert_load) # 负载标准差作为惩罚项`
稀疏门控注意力(Sparse Gated Attention)
在标准多头注意力基础上,添加可学习的稀疏门控:
`class SparseGatedAttention(nn.Module): def __init__(self, dim, num_heads): super().__init__() self.qkv = nn.Linear(dim, 3*dim) self.gate = nn.Linear(dim, num_heads) # 每个头一个门控值 def forward(self, x): B, T, C = x.shape q, k, v = self.qkv(x).chunk(3, dim=-1) gate = torch.sigmoid(self.gate(x)) # [B, T, H] # 标准注意力计算 attn = (q @ k.transpose(-2, -1)) / (C ** 0.5) attn = torch.softmax(attn, dim=-1) # 应用稀疏门控 attn = attn * gate.unsqueeze(-1) # 按头门控 return attn @ v`
动态稀疏性:门控机制使模型能够动态关闭部分注意力头,减少冗余计算。
理论分析:实验显示,在保持95%性能的前提下,计算量减少40%。
训练策略与工程优化
三阶段渐进训练
阶段一 - 基础预训练:
数据:混合工业文本(手册、日志)、传感器时序数据、CAD图纸。
目标:掩码重建损失 + 跨模态对比损失。
阶段二 - 多任务微调:
并行训练分类、生成、回归任务,采用 梯度手术(Gradient Surgery) 避免任务冲突:
`def gradient_surgery(grads): # grads: 各任务梯度列表 proj_grads = [] for g_i in grads: for g_j in grads: if g_j is not g_i: g_i -= (g_i @ g_j) * g_j / (g_j.norm()**2 + 1e-8) # 投影消除冲突 proj_grads.append(g_i) return proj_grads`
阶段三 - 动态蒸馏:
将大模型知识蒸馏到更小的推理子网络,同时保持教师模型在线更新。
显存优化技术
分块专家计算:将MoE专家计算分解到多个GPU,减少单卡显存占用:
`class ExpertParallel(nn.Module): def __init__(self, experts): self.experts = experts # 专家列表,分布在多个GPU def forward(self, x, expert_idx): # 将输入x路由到对应GPU上的专家 x = x.to(f'cuda:{expert_idx//4}') # 假设每GPU存放4个专家 return self.experts[expert_idx](x)`
梯度检查点:在反向传播时重新计算中间激活,牺牲时间换取显存空间。
关键创新点总结
异构模态统一表征
通过动态嵌入层将文本、结构化数据、图像映射到统一空间,支持端到端多模态推理
可微分稀疏计算
在注意力、MoE路由等核心模块引入可学习稀疏性,实现理论FLOPs与实测延迟的双下降
在线-离线混合蒸馏
训练阶段即嵌入蒸馏过程,学生模型可动态获取教师模型更新,避免传统蒸馏的信息滞后
工业场景专属优化
针对设备故障诊断、工艺优化等场景设计专用解码头,在PHM2018数据集上F1-score达92.3%
对MoE层前向传播的简单代码复现
`class HierarchicalMoELayer(nn.Module): def __init__(self, dim, num_experts=16, top_k=4): super().__init__() self.router = LoRA_Router(dim, num_experts) self.experts = nn.ModuleList([MLP(dim) for _ in range(num_experts)]) self.top_k = top_k def forward(self, x): # x形状: [B, T, D] gates = self.router(x) # [B, T, num_experts] topk_gates, topk_idx = torch.topk(gates, k=self.top_k, dim=-1) # 归一化门控权重 topk_gates = torch.softmax(topk_gates, dim=-1) expert_outputs = [] for i in range(self.top_k): expert_mask = topk_idx == i selected_x = x[expert_mask] # 动态选择输入切片 expert_out = self.experts[i](selected_x) # 分布式专家计算 expert_outputs.append(expert_out * topk_gates[expert_mask]) # 重组输出张量 output = torch.zeros_like(x) for i, out in enumerate(expert_outputs): output[topk_idx == i] += out return output`
性能对比
DeepSeek-R1 通过 动态稀疏计算、分层MoE架构 和 工业场景优化 三大核心创新,在保持模型表达能力的同时显著提升推理效率。其设计思想体现了“以计算换智能”的工业AI理念,为在资源受限环境中部署大模型提供了新的技术路径。
DeepSeek架构–深入代码理解
GPU TPU NPU的区别?
设计目的
GPU:最初是为了加速图形渲染而设计的,用于处理图像和视频数据,以提供高质量的视觉效果。在现代计算机中,GPU 也被广泛用于通用计算,如科学计算、深度学习等。
TPU:是专门为加速张量计算而设计的,主要用于深度学习模型的训练和推理。TPU 针对深度学习的特点进行了优化,能够高效地处理大规模的张量运算。
NPU:主要用于加速神经网络的计算,特别适用于人工智能领域中的图像识别、语音识别、自然语言处理等任务。NPU 通常采用了专门的架构和算法,能够在低功耗的情况下提供高效的神经网络计算能力。
硬件架构
GPU:拥有大量的计算核心(cuda),通常采用 SIMD(单指令多数据)架构,能够同时处理多个数据元素。GPU 还具有丰富的内存层次结构,包括片上缓存、显存等,以支持高效的数据访问。
以英伟达的gpu为例,大概的硬件架构图
1.主机接口(Host Interface):负责与主机(如 CPU)进行通信。
2.内存控制器(Memory Controller):管理 GPU 与外部内存(如 GDDR)之间的数据传输。
3.L2 缓存(L2 Cache):作为数据的高速缓存,减少内存访问延迟。
4.流式多处理器(Streaming Multiprocessors, SMs):GPU 的核心计算单元,多个 SM 并行工作以提高计算能力。每个 SM 内部包含线程调度器、 warp 调度器、ALU 阵列和共享内存。
TPU:通常采用了专门的张量处理单元(Tensor Core),能够高效地处理张量运算。TPU 还具有高速的内存接口和片上缓存,以支持快速的数据传输和访问。
以较新的谷歌 TPU v4 为例
1.整体组件Tensor Core:TPU v4 有两个 Tensor Core(tensor_core_0和tensor_core_1 ),每个 Tensor Core 包含多个核心计算单元。
HBM(高带宽内存):有两个 HBM 模块(hbm_0和hbm_1 ),分别与对应的 Tensor Core 相连,提供高带宽内存支持。
Sparse Core:专门针对稀疏计算优化的模块(sparse_core ),与两个 Tensor Core 都有连接。
3D Torus Interconnect:3D Torus 互联结构(torus ),用于实现芯片间高效互联,连接各个主要组件。
2.Tensor Core 内部
每个 Tensor Core 里有四个脉动阵列 MXU(如mxu_0 - mxu_3 等 )以及一个 Scalar Unit 和一个 Vector Unit ,展示了其内部计算单元的构成和连接关系。Sparse 3.Core 内部
包含 Fetch Unit(从 HBM 读取数据 )、scVPU(向量处理单元 )、Flush Unit(反向传播时写入更新参数 )以及五个跨通道单元(执行嵌入操作 ),体现其针对稀疏计算的功能模块设计。
NPU:采用了专门的神经网络处理器架构,通常包括多个处理单元和存储单元。NPU 还具有高效的硬件加速器,如卷积神经网络(CNN)加速器、循环神经网络(RNN)加速器等,以支持不同类型的神经网络计算。
以较为典型的寒武纪思元系列 NPU 架构为参考示例
1.整体组件Input Data Buffer:输入数据缓冲区,用于暂存输入到 NPU 的数据。
Weight Data Buffer:权重数据缓冲区,存放神经网络计算所需的权重参数。
Neural Network Core:神经网络核心计算单元,进行主要的神经网络计算。
Accelerator Engine:加速引擎,对特定计算进行加速处理,提升计算效率。
Memory Controller:内存控制器,管理数据在不同缓冲区和外部内存之间的传输。
Output Data Buffer:输出数据缓冲区,存储计算后的输出结果。
2.Neural Network Core 内部MAC Array:乘累加阵列,执行大量的乘累加操作,是神经网络计算的基础运算单元。
Activation Unit:激活单元,对 MAC 阵列的计算结果应用激活函数,引入非线性因素。
Normalization Unit:归一化单元,对数据进行归一化处理,有助于提升模型训练和推理的稳定性与效率。
3.Accelerator Engine 内部Sparse Computation Unit:稀疏计算单元,针对稀疏数据进行高效计算,减少不必要的计算量。
Dynamic Computation Unit:动态计算单元,适应不同的计算需求,灵活调整计算方式。
Parallel Processing Unit:并行处理单元,充分利用并行计算资源,加速整体计算过程
计算能力
GPU:具有强大的并行计算能力,能够同时处理多个图形或计算任务。在深度学习领域,GPU 也能够提供较高的计算性能,特别是在处理大规模数据集和复杂模型时表现出色。
TPU:针对深度学习的张量计算进行了优化,能够提供比 GPU 更高的计算性能和效率。TPU 通常采用了更高的时钟频率和更高效的计算单元,能够在短时间内完成大规模的张量运算。
NPU:在处理神经网络计算时具有高效的性能,能够在低功耗的情况下提供较高的计算速度。NPU 通常采用了专门的算法和架构,能够针对不同类型的神经网络进行优化,从而提高计算效率。
应用场景
GPU:广泛应用于图形渲染、游戏开发、科学计算、深度学习等领域。在深度学习领域,GPU 是目前最常用的计算设备之一,能够支持各种深度学习框架和模型的训练和推理。
TPU:主要应用于深度学习领域,特别是在大规模数据中心和云计算环境中,用于加速深度学习模型的训练和推理。TPU 能够提供高效的计算性能和低功耗,从而降低数据中心的运营成本。
NPU:主要应用于人工智能领域,如智能手机、智能家居、智能安防等设备中,用于加速图像识别、语音识别、自然语言处理等任务。NPU 能够在低功耗的情况下提供高效的计算能力,从而满足设备对性能和功耗的要求。
SiLU激活函数,并进一步解释门控神经网络
SiLU 激活函数详解
SiLU(Sigmoid Linear Unit)激活函数,也被称为 Swish 激活函数,由 Google Brain 在 2017 年引入。其定义为:
SiLU(x)=x⋅sigmoid(x)
其中,sigmoid(x) 是标准的 sigmoid 函数,其值在 0 和 1 之间:
sigmoid(x)=1+e−x1
特性
平滑性:SiLU 是一个平滑的函数,其输出值是连续且可导的,这有助于梯度下降算法在优化过程中稳定更新参数
非线性:SiLU 引入了非线性变换,使其能够捕捉复杂的数据模式
自正则化:SiLU 的输出值可以自适应地缩放输入值,类似于自正则化的效果,这可能有助于减少过拟合
无零输出区域:与 ReLU 不同,SiLU 不存在零输出区域,这意味着它在负数部分也有一定的响应,从而避免了梯度消失问题
优点
缓解梯度消失问题:SiLU 在负数部分也有一定的响应,这使得它在深度神经网络中能够更好地缓解梯度消失问题
非零中心:SiLU 的输出值不是零中心的,这有助于网络的学习
平滑函数:SiLU 是一个平滑函数,这意味着它在整个定义域内都有导数,有利于优化
缺点
计算复杂度:SiLU 的计算复杂度相对较高,因为它需要计算 sigmoid 函数。
应用场景
SiLU 激活函数在深度神经网络中表现出色,尤其是在需要处理负值输入的场景中。它在 YOLOv5 等深度学习模型中被广泛应用,取得了良好的效果
与其他激活函数的对比
ReLU(Rectified Linear Unit):ReLU 函数定义为ReLU(x) = max(0, x),它在 x > 0 时输出线性增长,而在 x <= 0 时输出为 0。这导致了 “死亡 ReLU” 问题,即当神经元的输入一直为负时,它将永远不会被激活,梯度也会变为 0,从而使该神经元无法更新参数。而 SiLU 在负数部分有非零输出,避免了这个问题。
Sigmoid 函数:Sigmoid 函数将输入值映射到 (0, 1) 区间,常用于二分类问题的输出层。然而,Sigmoid 函数存在梯度消失问题,当输入值很大或很小时,其导数趋近于 0,导致在深度神经网络中难以进行有效的参数更新。SiLU 结合了 Sigmoid 函数和线性函数,一定程度上缓解了梯度消失问题。
数学性质
导数:SiLU 函数的导数可以通过乘积法则计算。设 f(x) = x * sigma(x),其中 sigma(x)是 Sigmoid 函数。根据乘积法则 (uv)’ = u’v + uv’,可得 f’(x) = sigma(x) + x *sigma(x) * (1 - sigma(x))。这个导数在整个定义域内都是连续的,有助于梯度下降算法的稳定运行。
门控机制理解
SiLU 可以看作是一种门控机制,其中 sigma(x) 作为门控信号。当 sigma(x) 接近 1 时,输入 x 几乎可以无衰减地通过,相当于门打开;当 sigma(x) 接近 0 时,输入 x 被大幅抑制,相当于门关闭。这种门控机制使得 SiLU 能够自适应地调整输入的影响,从而更好地捕捉数据的特征。
门控神经网络详解
门控神经网络是一种通过门控机制来控制信息流动的神经网络结构。门控机制的核心思想是通过“门”来决定哪些信息应该被保留,哪些信息应该被过滤或抑制,从而提升模型的表达能力和计算效率
门控机制的原理
门控机制通常由神经网络(如全连接层)和激活函数(如 sigmoid)组成。门控的计算公式一般如下:
G=σ(Wx+b)
其中,x 是输入信息,W 和 b 是权重和偏置,σ 是 sigmoid 函数。
门控神经网络的结构
门控神经网络的典型代表包括长短期记忆网络(LSTM)和门控循环单元(GRU)。这些网络通过门控机制来控制信息的流动,从而有效地处理序列数据。
门控循环单元(GRU)
GRU 是一种简化的 LSTM 结构,它通过两个门(更新门和重置门)来控制信息的流动。更新门负责确定有多少上一个时间步的隐藏状态信息应该被保留到当前时间步,而重置门负责确定在计算新的隐藏状态时,有多少上一个时间步的隐藏状态信息应该被保留。
门控神经网络的应用
门控神经网络在处理序列数据(如自然语言处理、时间序列预测等)方面表现出色。它们通过门控机制有效地解决了传统 RNN 的梯度消失问题,从而能够更好地建模长距离依赖关系。
deepseek的整体架构
经过线性层(更准确来说是Column Parallel Linear --列并行线性层)后最后通过softmax进行token的多分类,取概率值最大的作为‘next token’
DeepSeek大模型的整体架构基于Transformer,但通过引入Mixture of Experts(MoE)和一系列优化技术(如KV Cache、Rotary Positional Encodings等),显著提升了模型的效率和性能。以下是对DeepSeek架构的详细解析,按照输入到输出的顺序逐步展开。
输入与嵌入层
输入:模型的输入是一个序列(例如文本序列),每个位置的词会被映射到一个高维向量。
ParallelEmbedding:嵌入层负责将输入的词映射到高维空间。DeepSeek采用并行化的嵌入层(ParallelEmbedding),这意味着嵌入操作可以分布在多个GPU或TPU上,从而加速计算。
Rotary Positional Encodings:为了捕捉序列中词的位置信息,DeepSeek使用了Rotary Positional Encodings。与传统的绝对位置编码不同,Rotary Positional Encodings通过旋转操作将位置信息嵌入到词向量中,能够更有效地处理长序列。
Transformer层
DeepSeek的Transformer层是模型的核心部分,每个Transformer层由两个主要模块组成:多头注意力(Multi-head Attention)和前馈网络(FFN)。这些模块通过RMS Norm进行归一化处理。
多头注意力(Multi-head Attention with KV Cache)
KV Cache:为了提高效率,DeepSeek在多头注意力中引入了KV Cache(Key-Value Cache)。KV Cache通过存储历史的Key和Value向量,避免了在生成任务中重复计算这些值,从而显著降低了计算量。
Naive & Absorb Cache:KV Cache有两种模式:
Naive Cache:直接存储Key和Value向量。
Absorb Cache:通过优化将缓存的Key和Value向量与当前计算结果融合,进一步减少计算开销。
Parallel:KV Cache的计算是并行化的,进一步加速了推理过程。
RMS Norm:每个注意力模块后都接有一个RMS Norm层,用于对输入进行归一化处理,确保数值稳定。
前馈网络(FFN with SiLU & Parallel)
FFN with SiLU:前馈网络采用SiLU激活函数,这种激活函数在负值部分也有响应,避免了梯度消失问题,同时提升了模型的非线性表达能力。
Parallel:FFN的计算是并行化的,这意味着不同的计算任务可以同时进行,从而提高效率。
MoE(Mixture of Experts):FFN层可以替换为MoE层,MoE通过稀疏激活机制选择少数专家进行计算,从而减少计算量并提升效率。
稀疏激活:每个token只会激活一小部分专家,而不是整个网络。
动态路由:门控网络(Gating Network)根据输入特征动态选择哪些专家参与计算。
共享专家:MoE层中包含一个共享专家,用于捕捉通用知识。
重复的Transformer层(N)
DeepSeek的Transformer层会重复多次(标记为*N),每次重复都会进一步提取输入的特征。通过多层的堆叠,模型能够捕捉到更复杂的上下文关系。
输出层
RMS Norm:在最后一层Transformer后,输出再次经过RMS Norm进行归一化。
Linear:最后通过一个线性层将输出映射到目标空间(例如词表中的词)。
MoE的优化与优势
MoE是DeepSeek架构的核心优化之一,以下是其具体优势和实现细节:
稀疏激活:MoE通过稀疏激活机制,只激活少量专家,从而减少计算量。
动态路由:门控网络根据输入特征动态选择专家,确保每个token都被最合适的专家处理。
共享专家:MoE层中包含一个共享专家,用于捕捉通用知识,避免专家模块的过拟合。
可扩展性:MoE架构允许灵活扩展专家数量,适配不同的计算资源。
整体架构的效率与性能
DeepSeek通过以下方式提升了整体效率和性能:
KV Cache:减少多头注意力中的重复计算,显著降低推理延迟。
MoE:通过稀疏激活减少计算量,同时提升模型的表达能力。
并行化:嵌入层、KV Cache和FFN的计算都是并行化的,进一步加速了训练和推理。
RMS Norm:相比Layer Norm,RMS Norm在数值稳定性和计算效率上有一定优势。
Rotary Positional Encodings
RoPE的基本原理
RoPE通过旋转查询向量(Query)和键向量(Key)来编码位置信息,而不是像传统方法那样直接添加位置编码。这种方法的核心思想是利用旋转矩阵对输入嵌入进行旋转,从而保留原始嵌入的信息,同时引入位置信息。
旋转矩阵:RoPE使用旋转矩阵对嵌入向量进行旋转。旋转矩阵的旋转角度由词的位置决定,从而使得不同位置的词具有不同的旋转模式。
保留相对位置信息:RoPE通过旋转角度的差异自然地编码了词之间的相对位置信息。例如,两个词之间的相对距离可以通过旋转角度的差值来表示。
RoPE的实现
RoPE的实现过程如下:
初始化频率数组:类似于传统的正弦和余弦位置编码,RoPE首先生成一个频率数组,用于控制旋转的角度。
位置缩放:将词的位置与频率数组相乘,生成缩放后的角度。
构造旋转矩阵:通过堆叠缩放后的角度的正弦和余弦值,构造旋转矩阵。
旋转嵌入向量:将旋转矩阵应用于查询向量和键向量,从而对它们进行旋转。
RoPE的优势
计算效率高:RoPE通过旋转矩阵实现位置编码,比传统的相对位置编码更高效。
适合推理:RoPE的位置编码仅依赖于当前词的位置,不会随着新词的生成而变化,因此可以与KV缓存结合使用,提高推理速度。
保留相对位置信息:RoPE通过旋转角度的差异自然地编码了相对位置信息,使得模型能够更好地理解词之间的相对距离。
RoPE与传统位置编码的对比
绝对位置编码:传统的绝对位置编码通过直接添加正弦和余弦函数来编码位置信息,但无法很好地处理相对位置。
相对位置编码:相对位置编码通过学习词之间的相对距离来编码位置信息,但计算复杂且不适合推理。
RoPE:RoPE结合了绝对位置编码和相对位置编码的优点,通过旋转矩阵实现了高效的相对位置编码。
RoPE在Transformer中的应用
RoPE通常应用于Transformer模型的注意力机制中,通过旋转查询向量和键向量来引入位置信息。这种方法不仅保留了原始嵌入的信息,还使得模型能够更有效地处理长序列。
deepseek训练和推理的数据io流程
1. 输入数据准备
数据输入:输入数据可以是文本、图像或其他形式的数据,这些数据首先被转换为模型可以处理的格式,通常是高维向量。
编码层处理:输入数据通过模型的编码层(如嵌入层)或其他预处理层,生成隐状态(hidden states)。这些隐状态作为路由器和专家模型的输入。
2. 路由器(Gate)计算权重
权重计算:路由器根据输入的隐状态,计算每个专家的激活权重。这通常通过一个简单的前馈网络实现,使用softmax或其他激活函数计算每个专家的得分(gi (x))。
Top-k 选择:通过top-k筛选,选择得分最高的k个专家。这一步确保只有部分专家参与计算,从而提高效率。
3. 选择Top-k专家
专家选择:使用torch.topk()函数选择得分最高的k个专家。只有这k个专家参与后续的计算,其他专家的输出被忽略(权重为0)。
4. 专家计算输出
专家激活:被选中的Top-k专家根据输入数据计算它们的输出。每个专家的输出通过路由器计算的权重进行加权求和,生成最终的输出。
5. 损失计算与辅助损失
常规损失:计算模型输出与真实标签之间的损失,如交叉熵损失。
辅助损失:引入辅助损失,确保所有专家都能被均衡使用,避免某些专家“过度使用”或“闲置”。辅助损失通常是一个正则化项,鼓励专家的使用频率均衡。
6. 反向传播与参数更新
反向传播:通过反向传播算法更新所有专家和路由器的参数。即使某些专家在当前batch中未被激活,它们的参数也可能因为累积梯度而被更新。
参数更新:使用优化算法(如Adam)更新模型参数,以最小化损失函数。
7. 推理阶段
前向传播:在推理阶段,输入数据通过同样的流程进行处理,但不再计算损失或进行反向传播。
专家激活:同样通过路由器选择Top-k专家进行计算,生成最终的输出。
8. 输出数据
模型输出:最终的输出可以是分类结果、生成的文本或其他形式的预测结果。
后处理:输出可能需要经过后处理,如解码或格式化,以便用户或下游应用使用。
门控机制?门如何控制专家信息的传递,如何实现路由机制?每个线性层和对应的门是什么关系?
1. 门控机制的基本原理
门控机制的主要任务是根据输入数据的特征,动态选择最合适的专家(Expert)来处理输入数据。门控模块(Gate)通过计算每个专家的激活权重,决定每个专家对最终输出的贡献。
输入数据:输入数据 X 被传递到门控模块。
门控权重计算:门控模块根据输入数据 X,计算每个专家的激活权重(权重值通常在 0 到 1 之间)。
权重归一化:门控权重通常通过 softmax 或其他归一化函数进行处理,确保所有权重的和为 1。
稀疏激活:通过 top-k 筛选,只选择权重最大的 k 个专家参与计算,其他专家的权重被设置为 0。
2. 门如何控制专家信息的传递
门控模块通过以下步骤控制专家信息的传递:
权重计算:门控模块根据输入数据 X 计算每个专家的权重 wi 。
稀疏激活:通过 top-k 筛选,选择权重最大的 k 个专家。
加权求和:被选中的专家的输出通过门控权重进行加权求和,生成最终的输出。
3. 路由机制的实现
路由机制通过门控模块选择最合适的专家来处理输入数据。具体实现步骤如下:
输入数据处理:输入数据 X 被传递到门控模块。
权重计算:门控模块计算每个专家的权重 wi ,权重值反映了输入数据与专家的相关性。
专家选择:通过 top-k 筛选,选择权重最大的 k 个专家。
信息传递:只有被选中的专家参与计算,其他专家的输出被忽略。
4. 每个线性层和对应的门的关系
在混合专家模型中,每个线性层(Linear)代表一个专家,负责处理输入数据的特定特征。门控模块(Gate)负责计算每个专家的权重,决定每个专家的输出对最终结果的贡献。
线性层(专家):每个线性层是一个独立的专家,负责处理输入数据的某些特征。
门控模块(Gate):门控模块根据输入数据的特征,计算每个专家的权重,权重值决定了专家的输出对最终结果的贡献。
权重应用:门控模块的权重与专家的输出相乘,生成加权后的输出。
5. 门控机制的流程示例
假设输入数据 X 通过门控机制和混合专家模型的处理,具体流程如下:
输入数据:输入数据 X 被传递到门控模块。
权重计算:门控模块计算每个专家的权重 w1 ,w2 ,…,wk 。
专家选择:通过 top-k 筛选,选择权重最大的 k 个专家。
专家计算:被选中的专家根据输入数据 X 计算它们的输出。
加权求和:门控模块的权重与专家的输出相乘,生成最终的输出。
6. 门控机制的优势
稀疏激活:只有部分专家参与计算,减少了计算量。
动态路由:门控模块根据输入数据的特征动态选择专家,提升了模型的适应性。
高效计算:通过稀疏激活和动态路由,门控机制显著提高了计算效率。
7. 总结
门控机制通过动态选择专家来控制信息的流动,是混合专家模型的核心部分。门控模块根据输入数据的特征计算每个专家的权重,通过稀疏激活选择最合适的专家参与计算。每个线性层(专家)和对应的门控权重共同决定了专家的输出对最终结果的贡献。这种机制在处理大规模数据和复杂任务时表现出色,同时保持了高效的计算性能。
如何理解‘专家的选择是基于每个token进行的,而不是基于每个序列或者批次’?
在Mixture of Experts(MoE)架构中,专家的选择是基于每个token(例如,文本中的每个词或子词)进行的,而不是基于整个序列或批次。这种设计使得模型能够动态地为每个token选择最合适的专家,从而提高模型的表达能力和效率。
1. 什么是token?
在自然语言处理(NLP)中,token通常指文本中的一个基本单元,例如单词、子词或字符。在深度学习模型中,每个token通常被表示为一个高维向量(嵌入向量)。
2. 为什么基于token选择专家?
基于token选择专家的设计有以下几个关键原因:
(1) 动态适应性
细粒度选择:每个token可能具有不同的语义或上下文需求,基于token选择专家可以确保每个token都被最合适的专家处理。
灵活的特征提取:不同的token可能需要不同的特征提取方式。例如,一个token可能需要处理语法信息,而另一个token可能需要处理语义信息。
(2) 提高效率
稀疏激活:基于token选择专家可以实现稀疏激活,即每个token只激活少数几个专家,而不是整个模型。这显著减少了计算量。
避免冗余计算:如果基于整个序列或批次选择专家,可能会导致某些专家被过度使用,而其他专家被闲置。基于token的选择可以更高效地利用计算资源。
(3) 捕捉局部特征
局部信息处理:每个token的语义和上下文信息通常是局部的,基于token选择专家可以更好地捕捉这些局部特征。
避免全局信息干扰:如果基于整个序列选择专家,可能会引入不必要的全局信息干扰,导致模型性能下降。
3. 基于token选择专家的实现
在MoE架构中,基于token选择专家的实现步骤如下:
(1) 输入数据
输入数据是一个序列,每个位置的token被表示为一个高维向量。
(2) 门控模块
门控权重计算:门控模块(Gate)根据每个token的特征,计算每个专家的激活权重。
稀疏激活:通过top-k筛选,选择权重最大的k个专家,每个token只激活这k个专家。
(3) 专家计算
专家输出:被选中的专家根据输入的token计算它们的输出。
加权求和:门控模块的权重用于对这些输出进行加权求和,生成最终的输出。
4. 基于token选择专家的优势
更高的灵活性:每个token可以根据其特征动态选择最合适的专家,提高了模型的适应性。
更高效的计算:稀疏激活减少了计算量,提高了模型的效率。
更好的特征提取:基于token的选择可以更好地捕捉局部特征,提升模型的性能。
5. 与基于序列或批次选择的对比
基于序列选择:整个序列的所有token共享相同的专家选择,可能导致某些token的特征被忽略。
基于批次选择:整个批次的所有序列共享相同的专家选择,进一步降低了灵活性。
基于token选择:每个token独立选择专家,确保每个token都能被最合适的专家处理。
6. 示例
假设输入序列是“我 爱 吃 苹果”,每个token分别是“我”、“爱”、“吃”、“苹果”。基于token选择专家的流程如下:
门控模块:为每个token(“我”、“爱”、“吃”、“苹果”)计算每个专家的权重。
稀疏激活:为每个token选择权重最大的k个专家。
专家计算:每个token的被选中专家计算输出。
加权求和:将专家的输出通过门控权重加权求和,生成最终的输出。
3大创新
创新了特殊的、多 Token 预测并行 Multi - Token Prediction
创新了特殊的、免负载均衡的 DeepSeekMOE 架构与训练流程
创新了特殊的、推理速度更快的 MLA 结合 KV Cache
DeepSeek-V3 重大创新解读
DeepSeek-V3 在模型架构、训练策略与推理优化上实现了多项突破性创新,以下是其核心技术的详细解读:
1. 多Token预测(Multi-Token Prediction)
核心思想:传统模型(如Transformer)逐Token生成文本,而DeepSeek-V3通过并行预测多个未来Token,显著提升生成效率。
实现方式:
并行解码:在单个前向传播中生成多个Token,减少迭代次数。
上下文一致性:通过潜在注意力机制(Multi-head Latent Attention)动态调整预测路径,避免错误传播。
优势:生成速度提升30%-50%,同时保持生成质量(通过实验验证困惑度与人工评测)。
2. DeepSeekMOE:免负载均衡的混合专家架构
架构创新:
专家动态选择:基于输入内容自动激活相关专家模型,无需传统MOE的复杂负载均衡机制。
参数共享:专家间共享部分参数,降低模型总参数量(相比传统MOE减少20%)。
训练优化:
稀疏梯度更新:仅更新活跃专家参数,提升训练效率。
自适应路由:通过轻量级路由网络(Routing Network)动态分配任务,减少计算开销。
效果:在相同计算资源下,模型容量提升2倍,训练速度加快15%。
3. Multi-head Latent Attention(MLA)与KV Cache优化
MLA创新:
潜在注意力头:引入潜在变量建模长距离依赖,增强对复杂上下文的捕捉能力。
KV Cache加速:结合两种缓存策略:
Naive Cache:标准键值缓存,适用于短序列。
Absorb Cache:动态压缩历史信息,减少长序列内存占用(内存消耗降低40%)。
并行化设计:注意力计算与缓存更新并行执行,推理速度提升25%。
4. 位置编码与归一化优化
Rotary Positional Encodings:
采用旋转位置编码(RoPE),更好地建模相对位置关系,提升长文本生成一致性。
在10k Token以上长文本任务中,困惑度(Perplexity)降低12%。
RMS Norm替代Layer Norm:
使用均方根归一化(RMS Norm),简化计算并提升训练稳定性(梯度方差减少18%)。
5. 并行化与计算优化
ColumnParallel Linear层:
线性层按列拆分并行计算,结合多Token预测(MTP),GPU利用率提升30%。
FFN with SiLU & Parallel:
前馈网络采用SiLU(Sigmoid Linear Unit)激活函数,增强非线性表达能力。
并行化FFN计算,训练吞吐量提升20%。
6. 实际效果与场景应用
生成质量:在文本摘要、对话生成等任务中,BLEU与ROUGE得分提升5%-8%。
推理速度:
短文本(<512 Token):生成速度提升40%。
长文本(>2048 Token):通过Absorb Cache,内存占用减少35%,延迟降低20%。
适用场景:
实时交互:如智能客服、实时翻译,依赖MLA与多Token预测的低延迟特性。
长文本生成:如文档撰写、代码生成,受益于RoPE与DeepSeekMOE的长程建模能力。
小结
DeepSeek-V3通过多Token预测、免负载均衡MOE、高效注意力缓存等核心技术,实现了训练效率、推理速度与生成质量的全面提升。其创新点不仅体现在算法设计上,更通过工程优化(如并行化、缓存策略)解决了大规模模型部署的实际瓶颈,为工业级应用提供了新的标杆。
成本与稳定性优势
极低训练成本:仅用 2048 个 H800 GPU,总训练 GPU 卡时 2788 千小时,训练成本约 557 万美元,远低于同类模型(如 GPT-4 MoE 训练成本为其数倍)。
极高训练稳定性:训练过程无不可恢复的损失峰值,未回滚,成功率 100%,保障模型训练的可靠性。
这些创新使 DeepSeek V3 在推理速度、训练效率、任务处理能力(尤其是数学与代码领域)及成本控制上达到新高度,不仅在开源模型中领先,也接近部分闭源模型(如 Claude 3.5 Sonnet)水平,推动 AI 大模型应用向更高效、普惠的方向发展。
关于AI大模型技术储备
学好 AI大模型 不论是就业还是在工作技能提升上都不错,但要学会 AI大模型 还是要有一个学习规划。最后大家分享一份全套的 AI大模型 学习资料,给那些想学习 AI大模型 的小伙伴们一点帮助!
感兴趣的小伙伴,赠送全套AI大模型学习资料和安装工具,包含Agent行业报告、精品AI大模型学习书籍手册、视频教程、最新实战学习等录播视频,具体看下方。
需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

如何学习大模型 AI ?
🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
