深度学习框架安装与使用指南
立即解锁
发布时间: 2025-09-01 01:49:35 阅读量: 7 订阅数: 12 AIGC 

### 深度学习框架安装与使用指南
在深度学习领域,数据准备和框架安装是开展工作的基础。本文将详细介绍数据下载与准备的步骤,以及TensorFlow和PyTorch这两个主流深度学习框架的安装方法和它们之间的关键差异。
#### 数据下载与准备
1. **Anki双语句子对**
- 可以从[http://www.manythings.org/anki/fra-eng.zip](http://www.manythings.org/anki/fra-eng.zip)下载Anki双语句子对。
- 下载完成后,将文件解压,并把`fra.txt`文件复制到`data`目录下。
2. **Coco数据集**
- 在`data`目录内创建一个名为`coco`的目录。
- 从[http://images.cocodataset.org/annotations/annotations_trainval2014.zip](http://images.cocodataset.org/annotations/annotations_trainval2014.zip)下载文件。
- 解压该文件,并将`captions_train2014.json`文件复制到`coco`目录中。
- 从[http://images.cocodataset.org/zips/train2014.zip](http://images.cocodataset.org/zips/train2014.zip)下载一个13GB的文件。
- 将其解压到`data/coco/`目录下,解压后的目录路径为`data/coco/train2014/`。
#### 深度学习框架安装
深度学习框架的安装方式有多种,主要包括系统安装、虚拟环境安装、使用Docker容器和使用云服务。代码示例使用的是TensorFlow 2.4版本和PyTorch 1.8.0版本。
1. **系统安装**
- **TensorFlow**:这是最直接的安装方式,但可能会遇到库版本冲突的问题。在shell中输入以下命令安装TensorFlow:
```bash
pip3 install tensorflow
```
如果要安装特定版本,例如2.4版本,可以使用以下命令:
```bash
pip3 install tensorflow==2.4
```
- **PyTorch**:使用以下命令安装PyTorch:
```bash
pip3 install torch torchvision
```
如果要安装特定版本,需要确保`torch`和`torchvision`版本兼容。例如,安装PyTorch 1.8.0版本:
```bash
pip install torch==1.8.0 torchvision==0.9.0
```
安装过程中要注意错误信息,可能提示缺少依赖包或已安装包版本错误。
2. **虚拟环境安装**
- 先安装`virtualenv`工具,它可以在系统上创建一个或多个虚拟环境。每个虚拟环境可以安装不同版本的包,避免与系统中已安装的包冲突。安装和创建虚拟环境的详细信息可以参考[https://virtualenv.pypa.io](https://virtualenv.pypa.io)。
3. **GPU加速**
- 如果要使用GPU加速,需要安装CUDA和CuDNN。具体安装步骤取决于所使用的系统。
- TensorFlow安装的详细信息可以参考[tensorflow.org/install](tensorflow.org/install)。
- PyTorch的相关信息可以参考[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)。
- 对于前几个编程练习,不需要GPU加速,可以先从简单的设置开始。
4. **Docker容器**
- 先在系统上安装Docker引擎,然后下载一个Docker镜像,该镜像已经安装了所需的一切(TensorFlow或PyTorch以及它们依赖的库)。
- 告诉Docker引擎根据该镜像创建一个Docker容器。Docker容器可以将运行的软件与环境隔离,类似于虚拟机,但更轻量级,因为它不包含操作系统本身。使用Docker容器是运行深度学习框架的流行方式,也是配置使用系统GPU的最简单方式。
5. **云服务**
- **Google Colab**:提供免费的机器访问,包括GPU加速,已经安装了TensorFlow和PyTorch。对于需要数据文件作为输入的代码示例,需要学习如何启用对Google Drive账户中数据的访问。
- **AWS**:可以按分钟租用机器,提供预配置的机器来运行TensorFlow和PyTorch,但开始使用有一定的学习曲线,包括设置账户、选择租用的机器、租用持久存储、配置安全组和网络访问等。好处是无需配置深度学习框架,因为AWS已经完成了设置。
#### TensorFlow特定注意事项
TensorFlow在使用时可能会输出较多信息,尤其是使用GPU时。如果想减少输出信息,可以设置环境变量`TF_CPP_MIN_LOG_LEVEL`为2。在bash中可以使用以下命令:
```bash
export TF_CPP_MIN_LOG_LEVEL=2
```
或者在每个程序的顶部添加以下代码:
```python
import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
```
#### PyTorch与TensorFlow的关键差异
1. **需要自己编写训练函数**
- 在TensorFlow中,使用Keras API定义模型后,调用`fit()`函数,框架会处理很多细节,包括前向传播、反向传播和权重调整,并计算和输出训练集和测试集的损失和准确率等指标。
- 在PyTorch中,需要自己编写训练函数,包括以下步骤:
- 调用所选优化器的`zero_grad()`方法,将所有梯度重置为零。
- 调用`Module`对象的实例,触发`forward()`方法进行前向传播。
- 计算损失并调用`backward()`方法进行反向传播。
- 调用所选优化器的`step()`方法根据当前梯度更新权重。
- 此外,还需要使用`DataLoader`对象将训练和测试数据分成小批量。
2. **数据在NumPy和PyTorch之间的显式转换**
- TensorFlow的Keras API使用NumPy数组表示张量,而PyTorch需要显式地在NumPy数组和PyTorch张量之间
0
0
复制全文
相关推荐









