活动介绍

神经网络训练:从梯度下降到反向传播

立即解锁
发布时间: 2025-09-01 00:50:20 阅读量: 3 订阅数: 42 AIGC
### 神经网络训练:从梯度下降到反向传播 #### 1. 神经网络训练目标 神经网络函数 \(f_{\theta}(x)\) 用于近似函数 \(g(x)\),即 \(f_{\theta}(x) \approx g(x)\)。训练的目标是找到参数 \(\theta\),使得 \(f_{\theta}(x)\) 能最佳地近似 \(g(x)\)。我们先学习如何使用梯度下降(GD)算法训练单层网络,然后借助反向传播(BP)算法将其扩展到深度前馈网络。 需要注意的是,神经网络和其训练算法是两个独立的部分。虽然可以用其他方法调整网络权重,但 GD 和 BP 是目前最流行且高效的方法,也是实际应用中常用的方法。 #### 2. 梯度下降(GD) 在本节中,我们使用均方误差(MSE)成本函数来训练简单的神经网络。MSE 用于衡量网络输出和所有训练样本的训练数据标签之间的差异(即误差),公式如下: \[J(\theta) = \frac{1}{2n} \sum_{i=1}^{n} (f_{\theta}(x^{(i)}) - t^{(i)})^2\] 下面来分析该公式的各个组成部分: - \(f_{\theta}(x^{(i)})\):神经网络的输出,其中 \(\theta\) 是所有网络权重的集合。在本节中,我们用 \(\theta_j\) 表示单个权重。 - \(n\):训练集中样本的总数。 - \(x^{(i)}\):训练样本的向量表示,上标 \(i\) 表示数据集中的第 \(i\) 个样本。由于 \(x^{(i)}\) 是向量,下标用于表示向量的各个分量,例如 \(x_j^{(i)}\) 是第 \(i\) 个训练样本的第 \(j\) 个分量。 - \(t^{(i)}\):与训练样本 \(x^{(i)}\) 关联的标签。 在这个例子中我们使用 MSE,但实际应用中还有其他类型的成本函数。 GD 算法的执行步骤如下: 1. **初始化网络权重**:将网络权重 \(\theta\) 初始化为随机值。 2. **迭代更新权重**:重复以下步骤,直到成本函数 \(J(\theta)\) 低于某个阈值。 - **前向传播**:使用上述公式计算训练集中所有样本的 MSE \(J(\theta)\) 成本函数。 - **反向传播**:使用链式法则计算 \(J(\theta)\) 关于所有网络权重 \(\theta_j\) 的偏导数(梯度): \[ \frac{\partial J(\theta)}{\partial \theta_j} = \frac{1}{n} \sum_{i=1}^{n} \frac{\partial f_{\theta}(x^{(i)})}{\partial \theta_j} [f_{\theta}(x^{(i)}) - t^{(i)}] \] - **更新权重**:使用这些梯度值更新每个网络权重: \[ \theta_j \leftarrow \theta_j - \eta \frac{\partial J(\theta)}{\partial \theta_j} = \theta_j - \eta \frac{1}{n} \sum_{i=1}^{n} \frac{\partial f_{\theta}(x^{(i)})}{\partial \theta_j} [f_{\theta}(x^{(i)}) - t^{(i)}] \] 其中,\(\eta\) 是学习率,它决定了优化器在训练过程中更新权重的步长。随着接近成本函数的全局最小值,梯度会变小,权重更新的步长也会更精细。 为了更好地理解 GD 的工作原理,我们以线性回归为例。线性回归相当于具有恒等激活函数 \(f(x) = x\) 的单个神经网络单元。具体步骤如下: - 线性回归函数表示为 \(f_{\theta}(x) = \sum_{j=1}^{m} x_j \theta_j\),其中 \(m\) 是输入向量的维度(等于权重的数量)。 - MSE 成本函数为 \(J(\theta) = \frac{1}{2n} \sum_{i=1}^{n} ((\sum_{j=1}^{m} x_j^{(i)} \theta_j) - t^{(i)})^2\)。 - 使用链式法则和求和法则计算 \(J(\theta)\) 关于单个网络权重 \(\theta_j\) 的偏导数: \[ \frac{\partial J(\theta)}{\partial \theta_j} = \frac{1}{n} \sum_{i=1}^{n} (f_{\theta}(x^{(i)}) - t^{(i)}) x_j^{(i)} \] - 得到梯度后,使用学习率 \(\eta\) 更新权重 \(\theta_j\)。 然而,GD 可能会收敛到局部最小值,而不是全局最小值。为了缓解这个问题,我们可以采取以下方法: - **增加学习率 \(\eta\)**:即使 GD 向局部最小值收敛,较大的 \(\eta\) 可能帮助我们跳过鞍点,向全局最大值收敛。但风险是,如果 GD 正确地向全局最大值收敛,较大的学习率可能使其跳到局部最小值。 - **使用动量(Momentum)**:动量扩展了普通的 GD,通过结合先前权重更新的值来调整当前的权重更新。具体实现步骤如下: 1. 计算当前权重更新值 \(v_t\),同时考虑前一次更新的速度 \(v_{t - 1}\): \[ v_t \leftarrow \mu v_{t - 1} - \eta \frac{\partial J(\theta)}{\partial \theta_j} \] 其中,\(\mu\) 是范围在 \([0, 1]\) 的超参数,称为动量率。在第一次迭代时,\(v_t\) 初始化为 0。 2. 执行实际的权重更新: \[ \theta_j \leftarrow \theta_j + v_t \] 寻找学习率 \(\eta\) 和动量率 \(\mu\) 的最佳值是一个经验性的任务,它们可能取决于神经网络的架构、数据集的类型和大小等因素。通常,我们在训练开始时使用较大的 \(\eta\),以便 GD 能在成本函数初始值(误差)较大时快速推进。当成本函数的下降开始趋于平稳时,我们可以减小学习率。此外,我们还可以使用自适应学习率算法,如 Adam。 我们之前介绍的 GD 是批量梯度下降,它会累积所有训练样本的误差,然后进行一次权重更新。这种方法适用于小数据集,但对于大数据集可能效率较低。在实际应用中,我们通常使用以下两种改进方法: - **随机(或在线)梯度下降(SGD)**:在每个训练样本后更新权重。 - **小批量梯度下降**:累积 \(k\) 个样本(称为小批量)的误差,并在每个小批量后进行一次权重更新。它是在线和批量 GD 的混合方法,在实际应用中,我们几乎总是使用小批量 GD。 以下是 GD 算法的执行流程: ```mermaid graph TD; A[初始化网络权重 \(\theta\) 为随机值] --> B{成本函数 \(J(\theta)\) 是否低于阈值}; B -- 否 --> C[前向传播:计算 \(J(\theta)\)]; C --> D[反向传播:计算梯度]; D --> E[更新权重 \(\theta\)]; E --> B; B -- 是 --> F[结束训练]; ``` #### 3. 反向传播(BP) 接下来,我们将学习如何结合 GD 和 BP 算法来更新多层网络的权重。这意味着要找到成本函数 \(J(\theta)\) 关于每个网络权重的导数。我们已经借助链式法则迈出了第一步: \[ \frac{\partial J(\theta)}{\partial \theta_j} = \frac{\partial J(f(\theta))}{\partial \theta_j} = \frac{\partial J(f(\theta))}{\partial f(\theta)} \frac{\partial f(\theta)}{\partial \theta_j} \] 在本节中,我们将进一步学习如何推导神经网络函数关于所有网络权重的导数,通过将误差梯度反向传播通过网络来实现。 为了简化问题,我们做以下假设: - 我们使用顺序前馈神经网络,即每个层从前一层获取输入,并将其输出发送到下一层。 - 定义 \(w_{ij}\) 为第 \(l\) 层的第 \(i\) 个单元和第 \(l + 1\) 层的第 \(j\) 个单元之间的权重。 - 用 \(y_i^{(l)}\) 表示第 \(l\) 层的第 \(i\) 个单元的输出,用 \(y_j^{(l + 1)}\) 表示第 \(l + 1\) 层的第 \(j\) 个单元的输出。 - 用 \(a_j^{(l)}\) 表示第 \(l\) 层的第 \(j\) 个单元的激活函数输入(即激活前的输入加权和)。 具体步骤如下: 1. 假设 \(l\) 和 \(l + 1\) 分别是倒数第二层和最后一层(输出层),则 \(J\) 关于 \(w_{ij}\) 的导数为: \[ \frac{\partial J}{\partial w_{ij}} = \frac{\partial J}{\partial y_j^{(l + 1)}} \frac{\partial y_j^{(l + 1)}}{\partial a_j^{(l + 1)}} \frac{\partial a_j^{(l + 1)}}{\partial w_{ij}} \] 2. 计算 \(\frac{\partial a_j^{(l + 1)}}{\partial w_{ij}}\) 时,在偏导数中,除 \(w_{ij}\) 外的所有函数参数都视为常数。因此,\(\frac{\partial a_j^{(l + 1)}}{\partial w_{ij}} = y_i^{(l)}\)。 3. 上述公式适用于网络中任意两个连续的隐藏层 \(l\) 和 \(l + 1\)。我们已知 \(\frac{\partial (y_i^{(l)} w_{ij})}{\partial w_{ij}} = y_i^{(l)}\),并且可以计算 \(\frac{\partial y_j^{(l - 1)}}{\partial a_j^{(l - 1)}}\)(激活函数的导数)。我们只需要计算 \(\frac{\partial J}{\partial y_j^{(l + 1)}}\),就可以从最后一层开始向后计算所有导数。 4. 根据链式法则,我们得到以下方程: \[ \frac{\partial J}{\partial y_i^{(l)}} = \sum_{j} \frac{\partial J}{\partial y_j^{(l + 1)}} \frac{\partial y_j^{(l + 1)}}{\partial y_i^{(l)}} = \sum_{j} \frac{\partial J}{\partial y_j^{(l + 1)}} \frac{\partial y_j^{(l + 1)}}{\partial a_j^{(l + 1)}} \frac{\partial a_j^{(l + 1)}}{\partial y_i^{(l)}} \] 5. 总结上述内容,我们有以下基本方程: \[ \frac{\partial J}{\partial w_{ij}} = \frac{\partial J}{\partial y_j^{(l + 1)}} \frac{\partial y_j^{(l + 1)}}{\partial a_j^{(l + 1)}} \frac{\partial a_j^{(l + 1)}}{\partial w_{ij}} \] \[ \frac{\partial J}{\partial y_i^{(l)}} = \sum_{j} \frac{\partial J}{\partial y_j^{(l + 1)}} \frac{\partial y_j^{(l + 1)}}{\partial y_i^{(l)}} = \sum_{j} \frac{\partial J}{\partial y_j^{(l + 1)}} \frac{\partial y_j
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

张_伟_杰

人工智能专家
人工智能和大数据领域有超过10年的工作经验,拥有深厚的技术功底,曾先后就职于多家知名科技公司。职业生涯中,曾担任人工智能工程师和数据科学家,负责开发和优化各种人工智能和大数据应用。在人工智能算法和技术,包括机器学习、深度学习、自然语言处理等领域有一定的研究
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

Tableau基础图表的创建与理解

### Tableau基础图表的创建与理解 在数据可视化领域,Tableau是一款功能强大的工具,它提供了多种类型的图表来帮助我们更好地理解和展示数据。下面将详细介绍如何在Tableau中创建几种常见的基础图表。 #### 1. 交叉表(文本表) 很多人在查看数据时,更倾向于使用熟悉的表格形式。Tableau提供了创建交叉表或文本表的功能,操作步骤如下: - 保存之前创建图表的进度。 - 若要从现有图表创建新的交叉表,在工作表标签处右键单击,选择“Duplicate as Crosstab”,即可生成一个新的文本表。 创建完成后,会发现Tableau做了一些有趣的改变: - “Regio

Tableau高级功能:地图与仪表盘操作指南

### Tableau高级功能:地图与仪表盘操作指南 #### 1. 高级地图功能 在使用Tableau进行数据可视化时,地图是一种非常强大的工具。从2018年起,Tableau引入了一些高级地图技术,极大地提升了地图可视化的能力。不过,在使用这些高级功能时,要确保地图能合理反映数据比例,避免数据的错误呈现。下面将详细介绍几种高级地图功能。 ##### 1.1 密度标记(Density Marks) 密度标记类型可用于查看特定区域内数据的集中程度。以查看美国大陆机场集中情况为例: - 操作步骤: 1. 双击“Origin Latitude”和“Origin Longitude”,并

数据故事创作:从理论到实践的全面指南

# 数据故事创作:从理论到实践的全面指南 ## 1. SWD工作坊:实践与提升 在工作中,我们可以组织 SWD 工作坊来提升数据故事讲述的能力。首先是前期准备工作: - 给团队发送三小时的日程邀请,并预订一个有充足桌面空间和白板的会议室。 - 准备好物资,如彩色马克笔、活动挂图和多种尺寸的便利贴(6x8 英寸的便利贴很棒,因为它们与标准幻灯片尺寸相同,可用于以低技术方式模拟整个演示文稿;同时准备一些较小的便利贴,供那些想在深入细节之前进行更高级故事板制作并关注总体主题和流程的人使用)。 为实际的工作坊指定一名计时员。在项目工作时间,计时员要留意时间,在进行到一半和还剩 20 分钟时提醒参与

预训练模型的十大关键问题探索

# 预训练模型的十大关键问题探索 ## 1. 模型安全与认知学习 ### 1.1 模型安全 在模型安全方面,具备语音知识的模型不会被“U r stupid!”这类表述所误导。因此,构建具有丰富知识的大模型是保障模型安全的可靠途径。 ### 1.2 认知学习 当前大模型的学习范式仍以数据驱动为主,无法充分反映现实世界中的潜在风险。人类能够主动与世界交互并持续获取知识,还能从“试错”过程中学习避免错误。所以,对于构建安全模型而言,从认知和交互中学习至关重要。 ### 1.3 安全与伦理挑战 安全和伦理是人工智能领域长期存在的话题,在文学和艺术作品中也有广泛讨论。面对强大机器失控的担忧,我们需

电子商务中的聊天机器人:开发、测试与未来趋势

# 电子商务中的聊天机器人:开发、测试与未来趋势 ## 1. Rasa助力电商聊天机器人开发 Rasa为电子商务提供了“零售入门包”,这本质上是一个专门用于客户服务的基础示例聊天机器人。该机器人预装了训练数据,具备多种零售客户服务技能,如查询订单状态。零售虚拟助手开发者可利用此项目创建适合在线零售的定制聊天机器人。 Rasa拥有高度可定制的开发系统,开发者能选择将关键组件(如特定语言模型)集成到项目中。此外,Rasa拥有庞大的社区,便于开发者融入其生态系统。它为电商聊天机器人开发提供了众多功能和优势,是一款出色的工具。一些选择Rasa开发虚拟助手的企业包括食品配送公司HelloFresh和

概率注释模型:特征添加与序列标注任务建模

### 概率注释模型:特征添加与序列标注任务建模 在数据标注领域,不同的模型有着各自的特点和适用场景。部分汇集模型在稀疏数据条件下展现出更好的适应性,它通过信息共享机制,让标注者的注释行为相互影响,从而使模型在数据有限时也能有效工作。当有足够的注释时,部分汇集模型和非汇集模型的性能可能相近,但整体而言,部分汇集模型更为通用。 #### 1. 添加特征以增强模型能力 传统的裁决模型主要依赖编码者提供的注释,但研究表明,让模型具备数据感知能力,即除了注释外,使用特征来刻画项目,能够提升模型的裁决能力。 ##### 1.1 Raykar 等人的判别模型 Raykar 等人(2010)利用特征丰

优化PowerBI体验与DAX代码的实用指南

### 优化 Power BI 体验与 DAX 代码的实用指南 在当今的数据驱动时代,Power BI 作为一款强大的商业智能工具,在数据分析和可视化方面发挥着重要作用。同时,DAX(Data Analysis Expressions)语言作为 Power BI 中进行高级计算和查询的关键,其优化对于提升整体性能至关重要。本文将详细介绍如何在 Power BI 中使用 Power Automate Visual、集成 Dynamics 365 进行数据分析,以及优化 DAX 代码的十种方法。 #### 1. 使用 Power Automate Visual 在 Power BI 中,你可以

利用MicrosoftFairlearn实现AI系统的公平性

# 利用 Microsoft Fairlearn 实现 AI 系统的公平性 ## 1. 公平机会的概念 在美国,“公平机会”指的是每个人都应拥有平等的成功机会,不论其种族、性别或其他个人特征如何。这一概念在教育、就业和住房等多个领域都有应用,其核心信念是所有人都应得到公平对待,不应因种族或性别等因素受到歧视。 为确保所有美国人享有公平机会,人们采取了一系列举措。例如,平权行动旨在帮助那些历史上遭受歧视的群体获得教育和就业机会;禁止在教育和就业中进行歧视的法律,也有助于营造公平竞争的环境。 然而,实现公平机会并非易事。在判断某人是否拥有平等的成功机会时,对于应考虑哪些因素可能存在分歧。此外

问答与对话系统技术探索

### 问答与对话系统技术探索 #### 1. 领域阅读资源概述 问答系统是一个活跃且广泛的领域。有一些关于问答系统和问题类型的简要但实用的综述。对于受限领域和开放领域问答的更全面介绍也有相关资料。常用的问答方法包括利用结构化知识源(如知识图谱和本体)的系统、基于检索的系统、交互式问答、视觉问答以及基于深度学习的方法等。 对话系统近年来受到了很多关注,这主要得益于语音识别和自然语言理解的进步。关于对话系统有很好的入门资料,广泛接受的对话言语行为理论也有相应的发展。马尔可夫决策过程框架的基础以及部分可观测马尔可夫决策过程的讨论都有相关文献。强化学习、时间差分学习和Q学习也都有不错的讨论资料。

Snowflake数据平台全方位解析

# Snowflake数据平台全方位解析 ## 1. Snowflake的发布计划 Snowflake每周会进行两次计划内发布,包含以下类型: - 完整发布:除周五外的任意一天进行部署,涵盖新功能、功能增强或更新以及问题修复。 - 补丁发布 此外,每月还会进行一次行为变更发布。 ## 2. Snowpark支持的语言 Snowpark支持多种客户端开放API语言,为开发者提供了丰富的选择: - Node.js - .NET - Go - Java - Python - SQL Snowflake数据平台对开发者十分友好,允许应用开发者在多种编程语言中进行选择。 ## 3. 查询性能测