活动介绍

使用PyTorch构建深度神经网络

立即解锁
发布时间: 2025-09-01 01:10:28 阅读量: 8 订阅数: 15 AIGC
### 使用 PyTorch 构建深度神经网络 在深度学习领域,使用 PyTorch 构建和训练神经网络是一项重要的技能。本文将详细介绍如何使用 PyTorch 训练一个神经网络,使其能够接收图像并预测图像的类别,同时探讨各种超参数对预测准确性的影响。 #### 训练神经网络的步骤 训练神经网络需要执行以下步骤: 1. 导入相关包。 2. 构建一个可以一次获取一个数据点的数据集。 3. 从数据集中包装 DataLoader。 4. 构建模型,然后定义损失函数和优化器。 5. 分别定义两个函数来训练和验证一批数据。 6. 定义一个函数来计算数据的准确性。 7. 根据每批数据在增加的 epoch 上执行权重更新。 #### 代码实现 ##### 1. 导入相关包和 FMNIST 数据集 ```python from torch.utils.data import Dataset, DataLoader import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt %matplotlib inline device = "cuda" if torch.cuda.is_available() else "cpu" from torchvision import datasets data_folder = '~/data/FMNIST' fmnist = datasets.FashionMNIST(data_folder, download=True, train=True) tr_images = fmnist.data tr_targets = fmnist.targets ``` ##### 2. 构建一个获取数据集的类 ```python class FMNISTDataset(Dataset): def __init__(self, x, y): x = x.float() x = x.view(-1,28*28) self.x, self.y = x, y def __getitem__(self, ix): x, y = self.x[ix], self.y[ix] return x.to(device), y.to(device) def __len__(self): return len(self.x) ``` 在 `__init__` 方法中,我们将输入转换为浮点数,并将每个图像展平为 28*28 = 784 个数值(每个数值对应一个像素值)。`__len__` 方法指定了数据点的数量,这里是 `x` 的长度。`__getitem__` 方法包含了当我们请求第 `ix` 个数据点时应返回的逻辑(`ix` 是一个介于 0 和 `__len__` 之间的整数)。 ##### 3. 创建一个生成训练 DataLoader 的函数 ```python def get_data(): train = FMNISTDataset(tr_images, tr_targets) trn_dl = DataLoader(train, batch_size=32, shuffle=True) return trn_dl ``` ##### 4. 定义模型、损失函数和优化器 ```python from torch.optim import SGD def get_model(): model = nn.Sequential( nn.Linear(28 * 28, 1000), nn.ReLU(), nn.Linear(1000, 10) ).to(device) loss_fn = nn.CrossEntropyLoss() optimizer = SGD(model.parameters(), lr=1e-2) return model, loss_fn, optimizer ``` 模型是一个具有一个包含 1000 个神经元的隐藏层的网络。输出是一个 10 神经元层,因为有 10 个可能的类别。我们使用 `CrossEntropyLoss` 函数,因为每个图像的输出可以属于 10 个类别中的任何一个。注意,我们在神经网络中根本没有使用 "softmax",因为 `nn.CrossEntropyLoss` 实际上期望我们发送原始的 logits(即无约束的值),它会在内部执行 softmax。 ##### 5. 定义一个在一批图像上训练数据集的函数 ```python def train_batch(x, y, model, opt, loss_fn): model.train() prediction = model(x) batch_loss = loss_fn(prediction, y) batch_loss.backward() optimizer.step() optimizer.zero_grad() return batch_loss.item() ``` 上述代码将一批图像通过模型进行前向传播,计算批次上的损失,然后通过反向传播更新权重,最后刷新梯度内存,以便不影响下一次传递中梯度的计算。 ##### 6. 构建一个计算给定数据集准确性的函数 ```python @torch.no_grad() def accuracy(x, y, model): model.eval() prediction = model(x) max_values, argmaxes = prediction.max(-1) is_correct = argmaxes == y return is_correct.cpu().numpy().tolist() ``` 我们通过 `@torch.no_grad()` 明确表示不需要计算梯度,通过将输入通过模型进行前向传播来计算预测值。然后调用 `prediction.max(-1)` 来确定每行对应的 argmax 索引,并将其与真实标签进行比较,最后返回正确预测的列表。 ##### 7. 训练神经网络 ```python trn_dl = get_data() model, loss_fn, optimizer = get_model() losses, accuracies = [], [] for epoch in range(5): print(epoch) epoch_losses, epoch_accuracies = [], [] for ix, batch in enumerate(iter(trn_dl)): x, y = batch batch_loss = train_batch(x, y, model, optimizer, loss_fn) epoch_losses.append(batch_loss) epoch_loss = np.array(epoch_losses).mean() for ix, batch in enumerate(iter(trn_dl)): x, y = batch is_correct = accuracy(x, y, model) epoch_accuracies.extend(is_correct) epoch_accuracy = np.mean(epoch_accuracies) losses.append(epoch_loss) accuracies.append(epoch_accuracy) epochs = np.arange(5)+1 plt.figure(figsize=(20,5)) plt.subplot(121) plt.title('Loss value over increasing epochs') plt.plot(epochs, losses, label='Training Loss') plt.legend(), plt.subplot(122) plt.title('Accuracy value over increasing epochs') plt.plot(epochs, accuracies, label='Training Accuracy') plt.gca().set_yticklabels(['{:.0f}%'.format(x*100) for x in plt.gca().get_yticks()]) plt.legend() ``` 训练 5 个 epoch 后,训练准确率为 12%,损失值在增加的 epoch 上没有显著下降。这表明无论等待多长时间,模型都不太可能提供高准确率(例如,高于 80%)。这促使我们了解所使用的各种超参数如何影响神经网络的准确性。 #### 数据集缩放以提高模型准确性 缩放数据集是确保变量限制在有限范围内的过程。在本节中,我们将通过将每个输入值除以数据集中可能的最大值(即 255,对应白色像素),将自变量的值限制在 0 到 1 之间。 ##### 代码实现 ##### 1. 获取数据集、训练图像和目标 ```python from torchvision import datasets from torch.utils.data import Dataset, DataLoader import torch import torch.nn as nn device = "cuda" if torch.cuda.is_available() else "cpu" import numpy as np data_folder = '~/data/FMNIST' fmnist = datasets.FashionMNIST(data_folder, download=True, train=True) tr_images = fmnist.data tr_targets = fmnist.targets ``` ##### 2. 修改获取数据的 FMNISTDataset 类 ```python class FMNISTDataset(Dataset): def __init__(self, x, y): x = x.float()/255 x = x.view(-1,28*28) self.x, self.y = x, y def __getitem__(self, ix): x, y = self.x[ix], self.y[ix] return x.to(device), y.to(device) def __len__(self): return len(self.x) ``` 与之前的部分相比,唯一的变化是我们将输入数据除以最大可能的像素值 255。由于像素值范围在 0 到 255 之间,将它们除以 255 将得到始终在 0 到 1 之间的值。 ##### 3. 训练模型 ```python def get_data(): train = FMNISTDataset(tr_images, tr_targets) trn_dl = DataLoader(train, batch_size=32, shuffle=True) return trn_dl from torch.optim import SGD def get_model(): model = nn.Sequential( nn.Linear(28 * 28, 1000), nn.ReLU(), nn.Linear(1000, 10) ).to(device) loss_fn = n ```
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

张_伟_杰

人工智能专家
人工智能和大数据领域有超过10年的工作经验,拥有深厚的技术功底,曾先后就职于多家知名科技公司。职业生涯中,曾担任人工智能工程师和数据科学家,负责开发和优化各种人工智能和大数据应用。在人工智能算法和技术,包括机器学习、深度学习、自然语言处理等领域有一定的研究
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

利用Kaen实现PyTorch分布式训练及超参数优化

### 利用Kaen实现PyTorch分布式训练及超参数优化 #### 1. 启用PyTorch分布式训练支持 在进行模型训练时,我们可以使用Kaen框架来支持PyTorch的分布式训练。以下是相关代码示例: ```python train_glob = os.environ['KAEN_OSDS_TRAIN_GLOB'] if 'KAEN_OSDS_TRAIN_GLOB' in os.environ else 'https://raw.githubusercontent.com/osipov/smlbook/master/train.csv' val_glob = os.environ['

电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模

# 电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模 ## 1. 锁相环(PLL) ### 1.1 锁相环原理 锁相环(PLL)是一种控制算法,用于确定正弦输入的频率和相位角。它主要用于两个系统之间的频率匹配,匹配完成后会存在一个恒定的相位差,从而实现相位“锁定”。PLL由相位检测机制、PID控制器和用于生成相位角信息的振荡器组成。此外,系统中还包含一个低通滤波器,用于获取正弦输入的频率信息。在柔性交流输电系统(FACTS)设备中,PLL增益对稳定系统性能起着至关重要的作用。 ### 1.2 Simulink环境下的PLL设置 为了直观展示PLL如何反映频率和相位的变化

模型生产化:从本地部署到云端容器化

# 模型生产化:从本地部署到云端容器化 ## 1. 引入 FastAPI 在将模型投入生产的过程中,我们首先要安装 FastAPI。由于 FastAPI 是一个 Python 模块,我们可以使用 pip 进行安装。打开一个新的终端,运行以下命令: ```bash $ pip install fastapi uvicorn aiofiles jinja2 ``` 这里我们安装了一些 FastAPI 所需的额外依赖项。uvicorn 是一个用于设置 API 的底层服务器/应用程序接口,而 aiofiles 则使服务器能够异步处理请求,例如同时接受和响应多个独立的并行请求。这两个模块是 FastA

利用PyTorch进行快速原型开发

### 利用 PyTorch 进行快速原型开发 在深度学习领域,快速搭建和验证模型是非常重要的。本文将介绍两个基于 PyTorch 的高级库:fast.ai 和 PyTorch Lightning,它们可以帮助我们更高效地进行模型的训练和评估。 #### 1. 使用 fast.ai 进行模型训练和评估 fast.ai 是一个基于 PyTorch 的高级库,它可以让我们在几分钟内完成模型的训练设置。下面是使用 fast.ai 训练和评估手写数字分类模型的步骤: ##### 1.1 模型训练日志分析 在训练过程中,我们可以看到冻结网络的第一个训练周期,然后是解冻网络的两个后续训练周期。日志中

模糊推理系统对象介绍

# 模糊推理系统对象介绍 ## 1. fistree 对象 ### 1.1 概述 fistree 对象用于表示相互连接的模糊推理系统树。通过它可以创建一个相互关联的模糊推理系统网络。 ### 1.2 创建方法 可以使用以下语法创建 fistree 对象: ```matlab fisTree = fistree(fis,connections) fisTree = fistree( ___ ,'DisableStructuralChecks',disableChecks) ``` - `fisTree = fistree(fis,connections)`:创建一个相互连接的模糊推理系统对象

使用PyTorch构建电影推荐系统

### 使用 PyTorch 构建电影推荐系统 在当今数字化时代,推荐系统在各个领域都发挥着至关重要的作用,尤其是在电影推荐领域。本文将详细介绍如何使用 PyTorch 构建一个电影推荐系统,从数据处理到模型训练,再到最终的推荐生成,为你呈现一个完整的推荐系统构建流程。 #### 1. 数据探索与处理 首先,我们需要对 MovieLens 数据集进行探索和处理。该数据集包含用户对电影的评分信息,其中存在一些缺失的评分值,用 NaN 表示。我们的目标是利用非空评分训练推荐系统,并预测这些缺失的评分,从而为每个用户生成电影推荐。 以下是处理数据集的代码: ```python import p

强化学习与合成数据生成:UnityML-Agents深度解析

# 强化学习与合成数据生成:Unity ML - Agents 深度解析 ## 1. 好奇心奖励与超参数设置 在强化学习中,为了激发智能体的好奇心,可以传递与外在奖励相同的超参数。具体如下: - **好奇心奖励信号超参数**: - `reward_signals->curiosity->strength`:用于平衡好奇心奖励与其他奖励(如外在奖励)的缩放系数,取值范围在 0.0 到 1.0 之间。 - `reward_signals->curiosity->gamma`:根据奖励实现所需的时间来调整奖励感知价值的第二个缩放系数,与外在奖励的 `gamma` 类似,取值范围也在

多视图检测与多模态数据融合实验研究

# 多视图检测与多模态数据融合实验研究 ## 1. 多视图检测实验 ### 1.1 实验数据集 实验参考了Wildtrack数据集和MultiviewX数据集,这两个数据集的特点如下表所示: | 数据集 | 相机数量 | 分辨率 | 帧数 | 区域面积 | | ---- | ---- | ---- | ---- | ---- | | Wildtrack | 7 | 1080×1920 | 400 | 12×36 m² | | MultiviewX | 6 | 1080×1920 | 400 | 16×25 m² | ### 1.2 评估指标 为了评估算法,使用了精度(Precision)、

二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决

### 二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决 #### 1. 二维和三维偏微分方程耦合求解 在求解二维和三维偏微分方程时,有几个具体的问题和解决方法值得探讨。 ##### 1.1 获取相同网格点的 v 值 要在与 u 相同的网格点上获取 v 值,可以输入以下命令: ```matlab >> T_table=tri2grid(p,t,u(length(p)+1:end,end),x,y) ``` 示例结果如下: ``` T_table = 0.6579 0.5915 0.5968 0.6582 0 0.6042 0.4892 0.5073 0.6234 0 0.543

A*算法深度剖析:如何在Cocos2d-x塔防游戏中高效实现路径查找

# 1. A*算法与路径查找的基本概念 在游戏开发与人工智能领域,路径查找是一项基础且关键的技术。A*(A-Star)算法作为一种启发式搜索算法,广泛应用于地图导航、机器人路径规划以及塔防游戏中单位的移动逻辑。本章将从路径查找的基本概念入手,介绍图的表示方式、邻接关系,并引出A*算法的基本思想。 A*算法结合了最佳优先搜索(Best-First Search)的启发式估计与Dijkstra算法的成本计算,能够在保证最优路径的同时提高搜索效率。其核心在于启发函数的设计,通过估算从当前节点到目标节点的最小代价,指导搜索方向,从而实现高效寻路。 # 2. A*算法的理论基础 A*(A-Sta