当前位置: 首页 > news >正文

建筑网站招聘网业小说畅读服务

建筑网站招聘,网业小说畅读服务,南宁模板建站平台,wordpress导航栏目1.1 Pytorch的历史 PyTorch是一个由Facebook的人工智能研究团队开发的开源深度学习框架。在2016年发布后#xff0c;PyTorch很快就因其易用性、灵活性和强大的功能而在科研社区中广受欢迎。下面我们将详细介绍PyTorch的发展历程。 在2016年#xff0c;Facebook的AI研究团队…1.1 Pytorch的历史 PyTorch是一个由Facebook的人工智能研究团队开发的开源深度学习框架。在2016年发布后PyTorch很快就因其易用性、灵活性和强大的功能而在科研社区中广受欢迎。下面我们将详细介绍PyTorch的发展历程。 在2016年Facebook的AI研究团队FAIR公开了PyTorch其旨在提供一个快速灵活且动态的深度学习框架。PyTorch的设计哲学与Python的设计哲学非常相似易读性和简洁性优于隐式的复杂性。PyTorch用Python语言编写是Python的一种扩展这使得其更易于学习和使用。 PyTorch在设计上取了一些大胆的决定其中最重要的一项就是选择动态计算图Dynamic Computation Graph作为其核心。动态计算图与其他框架例如TensorFlow和Theano中的静态计算图有着本质的区别它允许我们在运行时改变计算图。这使得PyTorch在处理复杂模型时更具灵活性并且对于研究人员来说更易于理解和调试。 在发布后的几年里PyTorch迅速在科研社区中取得了广泛的认可。在2019年PyTorch发布了1.0版本引入了一些重要的新功能包括支持ONNX、一个新的分布式包以及对C的前端支持等。这些功能使得PyTorch在工业界的应用更加广泛同时也保持了其在科研领域的强劲势头。 到了近两年PyTorch已经成为全球最流行的深度学习框架之一。其在GitHub上的星标数量超过了50k被用在了各种各样的项目中从最新的研究论文到大规模的工业应用。 综上PyTorch的发展历程是一部充满创新和挑战的历史它从一个科研项目发展成为了全球最流行的深度学习框架之一。在未来我们有理由相信PyTorch将会在深度学习领域继续发挥重要的作用。 1.2 Pytorch的优点 PyTorch不仅是最受欢迎的深度学习框架之一而且也是最强大的深度学习框架之一。它有许多独特的优点使其在学术界和工业界都受到广泛的关注和使用。接下来我们就来详细地探讨一下PyTorch的优点。 1. 动态计算图 PyTorch最突出的优点之一就是它使用了动态计算图Dynamic Computation GraphsDCGs与TensorFlow和其他框架使用的静态计算图不同。动态计算图允许你在运行时更改图的行为。这使得PyTorch非常灵活在处理不确定性或复杂性时具有优势因此非常适合研究和原型设计。 2. 易用性 PyTorch被设计成易于理解和使用。其API设计的直观性使得学习和使用PyTorch成为一件非常愉快的事情。此外由于PyTorch与Python的深度集成它在Python程序员中非常流行。 3. 易于调试 由于PyTorch的动态性和Python性质调试PyTorch程序变得相当直接。你可以使用Python的标准调试工具如PDB或PyCharm直接查看每个操作的结果和中间变量的状态。 4. 强大的社区支持 PyTorch的社区非常活跃和支持。官方论坛、GitHub、Stack Overflow等平台上有大量的PyTorch用户和开发者你可以从中找到大量的资源和帮助。 5. 广泛的预训练模型 PyTorch提供了大量的预训练模型包括但不限于ResNetVGGInceptionSqueezeNetEfficientNet等等。这些预训练模型可以帮助你快速开始新的项目。 6. 高效的GPU利用 PyTorch可以非常高效地利用NVIDIA的CUDA库来进行GPU计算。同时它还支持分布式计算让你可以在多个GPU或服务器上训练模型。 综上所述PyTorch因其易用性、灵活性、丰富的功能以及强大的社区支持在深度学习领域中备受欢迎。 1.3 Pytorch的使用场景 PyTorch的强大功能和灵活性使其在许多深度学习应用场景中都能够发挥重要作用。以下是PyTorch在各种应用中的一些典型用例 1. 计算机视觉 在计算机视觉方面PyTorch提供了许多预训练模型如ResNetVGGInception等和工具如TorchVision可以用于图像分类、物体检测、语义分割和图像生成等任务。这些预训练模型和工具大大简化了开发计算机视觉应用的过程。 2. 自然语言处理 在自然语言处理NLP领域PyTorch的动态计算图特性使得其非常适合处理变长输入这对于许多NLP任务来说是非常重要的。同时PyTorch也提供了一系列的NLP工具和预训练模型如TransformerBERT等可以帮助我们处理文本分类、情感分析、命名实体识别、机器翻译和问答系统等任务。 3. 生成对抗网络 生成对抗网络GANs是一种强大的深度学习模型被广泛应用于图像生成、图像到图像的转换、样式迁移和数据增强等任务。PyTorch的灵活性使得其非常适合开发和训练GAN模型。 4. 强化学习 强化学习是一种学习方法其中智能体通过与环境的交互来学习如何执行任务。PyTorch的动态计算图和易于使用的API使得其在实现强化学习算法时表现出极高的效率。 5. 时序数据分析 在处理时序数据的任务中如语音识别、时间序列预测等PyTorch的动态计算图为处理可变长度的序列数据提供了便利。同时PyTorch提供了包括RNN、LSTM、GRU在内的各种循环神经网络模型。 总的来说PyTorch凭借其强大的功能和极高的灵活性在许多深度学习的应用场景中都能够发挥重要作用。无论你是在研究新的深度学习模型还是在开发实际的深度学习应用PyTorch都能够提供强大的支持。 2. Pytorch基础 在我们开始深入使用PyTorch之前让我们先了解一些基础概念和操作。这一部分将涵盖PyTorch的基础包括tensor操作、GPU加速以及自动求导机制。 2.1 Tensor操作 Tensor是PyTorch中最基本的数据结构你可以将其视为多维数组或者矩阵。PyTorch tensor和NumPy array非常相似但是tensor还可以在GPU上运算而NumPy array则只能在CPU上运算。下面我们将介绍一些基本的tensor操作。 首先我们需要导入PyTorch库 1 import torch 然后我们可以创建一个新的tensor。以下是一些创建tensor的方法 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 # 创建一个未初始化的5x3矩阵 x torch.empty(5, 3) print(x) # 创建一个随机初始化的5x3矩阵 x torch.rand(5, 3) print(x) # 创建一个5x3的零矩阵类型为long x torch.zeros(5, 3, dtypetorch.long) print(x) # 直接从数据创建tensor x torch.tensor([5.5, 3]) print(x) 我们还可以对已有的tensor进行操作。以下是一些基本操作 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 # 创建一个tensor并设置requires_gradTrue以跟踪计算历史 x torch.ones(2, 2, requires_gradTrue) print(x) # 对tensor进行操作 y x 2 print(y) # y是操作的结果所以它有grad_fn属性 print(y.grad_fn) # 对y进行更多操作 z y * y * 3 out z.mean() print(z, out) 上述操作的结果如下 1 2 3 4 5 6 7 tensor([[1., 1.],         [1., 1.]], requires_gradTrue) tensor([[3., 3.],         [3., 3.]], grad_fnAddBackward0) AddBackward0 object at 0x7f36c0a7f1d0 tensor([[27., 27.],         [27., 27.]], grad_fnMulBackward0) tensor(27., grad_fnMeanBackward0) 在PyTorch中我们可以使用.backward()方法来计算梯度。例如 1 2 3 4 5 # 因为out包含一个标量out.backward()等价于out.backward(torch.tensor(1.)) out.backward() # 打印梯度 d(out)/dx print(x.grad) 以上是PyTorch tensor的基本操作我们可以看到PyTorch tensor操作非常简单和直观。在后续的学习中我们将会使用到更多的tensor操作例如索引、切片、数学运算、线性代数、随机数等等。 2.2 GPU加速 在深度学习训练中GPU图形处理器加速是非常重要的一部分。GPU的并行计算能力使得其比CPU在大规模矩阵运算上更具优势。PyTorch提供了简单易用的API让我们可以很容易地在CPU和GPU之间切换计算。 首先我们需要检查系统中是否存在可用的GPU。在PyTorch中我们可以使用torch.cuda.is_available()来检查 1 2 3 4 5 6 7 import torch # 检查是否有可用的GPU if torch.cuda.is_available():     print(There is a GPU available.) else:     print(There is no GPU available.) 如果存在可用的GPU我们可以使用.to()方法将tensor移动到GPU上 1 2 3 4 5 6 # 创建一个tensor x torch.tensor([1.0, 2.0]) # 移动tensor到GPU上 if torch.cuda.is_available():     x x.to(cuda) 我们也可以直接在创建tensor的时候就指定其设备 1 2 3 # 直接在GPU上创建tensor if torch.cuda.is_available():     x torch.tensor([1.0, 2.0], devicecuda) 在进行模型训练时我们通常会将模型和数据都移动到GPU上 1 2 3 4 5 6 7 8 9 10 # 创建一个简单的模型 model torch.nn.Linear(10, 1) # 创建一些数据 data torch.randn(100, 10) # 移动模型和数据到GPU if torch.cuda.is_available():     model model.to(cuda)     data data.to(cuda) 以上就是在PyTorch中进行GPU加速的基本操作。使用GPU加速可以显著提高深度学习模型的训练速度。但需要注意的是数据在CPU和GPU之间的传输会消耗一定的时间因此我们应该尽量减少数据的传输次数。 2.3 自动求导 在深度学习中我们经常需要进行梯度下降优化。这就需要我们计算梯度也就是函数的导数。在PyTorch中我们可以使用自动求导机制autograd来自动计算梯度。 在PyTorch中我们可以设置tensor.requires_gradTrue来追踪其上的所有操作。完成计算后我们可以调用.backward()方法PyTorch会自动计算和存储梯度。这个梯度可以通过.grad属性进行访问。 下面是一个简单的示例 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 import torch # 创建一个tensor并设置requires_gradTrue来追踪其计算历史 x torch.ones(2, 2, requires_gradTrue) # 对这个tensor做一次运算 y x 2 # y是计算的结果所以它有grad_fn属性 print(y.grad_fn) # 对y进行更多的操作 z y * y * 3 out z.mean() print(z, out) # 使用.backward()来进行反向传播计算梯度 out.backward() # 输出梯度d(out)/dx print(x.grad) 以上示例中out.backward()等同于out.backward(torch.tensor(1.))。如果out不是一个标量因为tensor是矩阵那么在调用.backward()时需要传入一个与out同形的权重向量进行相乘。 例如 1 2 3 4 5 6 7 8 9 10 11 12 x torch.randn(3, requires_gradTrue) y x * 2 while y.data.norm() 1000:     y y * 2 print(y) v torch.tensor([0.1, 1.0, 0.0001], dtypetorch.float) y.backward(v) print(x.grad) 以上就是PyTorch中自动求导的基本使用方法。自动求导是PyTorch的重要特性之一它为深度学习模型的训练提供了极大的便利。 3. PyTorch 神经网络 在掌握了PyTorch的基本使用方法之后我们将探索一些更为高级的特性和用法。这些高级特性包括神经网络构建、数据加载以及模型保存和加载等等。 3.1 构建神经网络 PyTorch提供了torch.nn库它是用于构建神经网络的工具库。torch.nn库依赖于autograd库来定义和计算梯度。nn.Module包含了神经网络的层以及返回输出的forward(input)方法。 以下是一个简单的神经网络的构建示例 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 import torch import torch.nn as nn import torch.nn.functional as F class Net(nn.Module):     def __init__(self):         super(Net, self).__init__()                   # 输入图像channel1输出channel65x5卷积核         self.conv1 nn.Conv2d(1, 6, 5)         self.conv2 nn.Conv2d(6, 16, 5)                   # 全连接层         self.fc1 nn.Linear(16 * 5 * 5, 120)         self.fc2 nn.Linear(120, 84)         self.fc3 nn.Linear(84, 10)     def forward(self, x):         # 使用2x2窗口进行最大池化         x F.max_pool2d(F.relu(self.conv1(x)), (2, 2))         # 如果窗口是方的只需要指定一个维度         x F.max_pool2d(F.relu(self.conv2(x)), 2)                   x x.view(-1, self.num_flat_features(x))                   x F.relu(self.fc1(x))         x F.relu(self.fc2(x))         x self.fc3(x)                   return x     def num_flat_features(self, x):         size x.size()[1:]  # 获取除了batch维度之外的其他维度         num_features 1         for s in size:             num_features * s         return num_features net Net() print(net) 以上就是一个简单的神经网络的构建方法。我们首先定义了一个Net类这个类继承自nn.Module。然后在__init__方法中定义了网络的结构在forward方法中定义了数据的流向。在网络的构建过程中我们可以使用任何tensor操作。 需要注意的是backward函数用于计算梯度会被autograd自动创建和实现。你只需要在nn.Module的子类中定义forward函数。 在创建好神经网络后我们可以使用net.parameters()方法来返回网络的可学习参数。 3.2 数据加载和处理 在深度学习项目中除了模型设计之外数据的加载和处理也是非常重要的一部分。PyTorch提供了torch.utils.data.DataLoader类可以帮助我们方便地进行数据的加载和处理。 3.2.1 DataLoader介绍 DataLoader类提供了对数据集的并行加载可以有效地加载大量数据并提供了多种数据采样方式。常用的参数有 dataset加载的数据集Dataset对象batch_sizebatch大小shuffle是否每个epoch时都打乱数据num_workers使用多进程加载的进程数0表示不使用多进程 以下是一个简单的使用示例 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 from torch.utils.data import DataLoader from torchvision import datasets, transforms # 数据转换 transform transforms.Compose([     transforms.ToTensor(),     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)) ]) # 下载并加载训练集 trainset datasets.CIFAR10(root./data, trainTrue, downloadTrue, transformtransform) trainloader DataLoader(trainset, batch_size4, shuffleTrue, num_workers2) # 下载并加载测试集 testset datasets.CIFAR10(root./data, trainFalse, downloadTrue, transformtransform) testloader DataLoader(testset, batch_size4, shuffleFalse, num_workers2) 3.2.2 自定义数据集 除了使用内置的数据集我们也可以自定义数据集。自定义数据集需要继承Dataset类并实现__len__和__getitem__两个方法。 以下是一个自定义数据集的简单示例 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 from torch.utils.data import Dataset, DataLoader class MyDataset(Dataset):     def __init__(self, x_tensor, y_tensor):         self.x x_tensor         self.y y_tensor     def __getitem__(self, index):         return (self.x[index], self.y[index])     def __len__(self):         return len(self.x) x torch.arange(10) y torch.arange(10) 1 my_dataset MyDataset(x, y) loader DataLoader(my_dataset, batch_size4, shuffleTrue, num_workers0) for x, y in loader:     print(x:, x, y:, y) 这个例子中我们创建了一个简单的数据集包含10个数据。然后我们使用DataLoader加载数据并设置了batch大小和shuffle参数。 以上就是PyTorch中数据加载和处理的主要方法通过这些方法我们可以方便地对数据进行加载和处理。 3.3 模型的保存和加载 在深度学习模型的训练过程中我们经常需要保存模型的参数以便于将来重新加载。这对于中断的训练过程的恢复或者用于模型的分享和部署都是非常有用的。 PyTorch提供了简单的API来保存和加载模型。最常见的方法是使用torch.save来保存模型的参数然后通过torch.load来加载模型的参数。 3.3.1 保存和加载模型参数 以下是一个简单的示例 1 2 3 4 5 6 7 # 保存 torch.save(model.state_dict(), PATH) # 加载 model TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH)) model.eval() 在保存模型参数时我们通常使用.state_dict()方法来获取模型的参数。.state_dict()是一个从参数名字映射到参数值的字典对象。 在加载模型参数时我们首先需要实例化一个和原模型结构相同的模型然后使用.load_state_dict()方法加载参数。 请注意load_state_dict()函数接受一个字典对象而不是保存对象的路径。这意味着在你传入load_state_dict()函数之前你必须反序列化你的保存的state_dict。 在加载模型后我们通常调用.eval()方法将dropout和batch normalization层设置为评估模式。否则它们会在评估模式下保持训练模式。 3.3.2 保存和加载整个模型 除了保存模型的参数我们也可以保存整个模型。 1 2 3 4 5 6 # 保存 torch.save(model, PATH) # 加载 model torch.load(PATH) model.eval() 保存整个模型会将模型的结构和参数一起保存。这意味着在加载模型时我们不再需要手动创建模型实例。但是这种方式需要更多的磁盘空间并且可能在某些情况下导致代码的混乱所以并不总是推荐的。 以上就是PyTorch中模型的保存和加载的基本方法。适当的保存和加载模型可以帮助我们更好地进行模型的训练和评估。 4. PyTorch GPT加速 掌握了PyTorch的基础和高级用法之后我们现在要探讨一些PyTorch的进阶技巧帮助我们更好地理解和使用这个强大的深度学习框架。 4.1 使用GPU加速 PyTorch支持使用GPU进行计算这可以大大提高训练和推理的速度。使用GPU进行计算的核心就是将Tensor和模型转移到GPU上。 4.1.1 判断是否支持GPU 首先我们需要判断当前的环境是否支持GPU。这可以通过torch.cuda.is_available()来实现 1 print(torch.cuda.is_available())  # 输出True 或 False 4.1.2 Tensor在CPU和GPU之间转移 如果支持GPU我们可以使用.to(device)或.cuda()方法将Tensor转移到GPU上。同样我们也可以使用.cpu()方法将Tensor转移到CPU上 1 2 3 4 5 6 7 8 9 10 11 12 13 14 # 判断是否支持CUDA device torch.device(cuda if torch.cuda.is_available() else cpu) # 创建一个Tensor x torch.rand(3, 3) # 将Tensor转移到GPU上 x_gpu x.to(device) # 或者 x_gpu x.cuda() # 将Tensor转移到CPU上 x_cpu x_gpu.cpu() 4.1.3 将模型转移到GPU上 类似的我们也可以将模型转移到GPU上 1 2 model Model() model.to(device) 当模型在GPU上时我们需要确保输入的Tensor也在GPU上否则会报错。 注意将模型转移到GPU上后模型的所有参数和缓冲区都会转移到GPU上。 以上就是使用GPU进行计算的基本方法。通过合理的使用GPU我们可以大大提高模型的训练和推理速度。 4.2 使用torchvision进行图像操作 torchvision是一个独立于PyTorch的包提供了大量的图像数据集图像处理工具和预训练模型等。 4.2.1 torchvision.datasets torchvision.datasets模块提供了各种公共数据集如CIFAR10、MNIST、ImageNet等我们可以非常方便地下载和使用这些数据集。例如下面的代码展示了如何下载和加载CIFAR10数据集 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 from torchvision import datasets, transforms # 数据转换 transform transforms.Compose([     transforms.ToTensor(),     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)) ]) # 下载并加载训练集 trainset datasets.CIFAR10(root./data, trainTrue, downloadTrue, transformtransform) trainloader torch.utils.data.DataLoader(trainset, batch_size4, shuffleTrue, num_workers2) # 下载并加载测试集 testset datasets.CIFAR10(root./data, trainFalse, downloadTrue, transformtransform) testloader torch.utils.data.DataLoader(testset, batch_size4, shuffleFalse, num_workers2) 4.2.2 torchvision.transforms torchvision.transforms模块提供了各种图像转换的工具我们可以使用这些工具进行图像预处理和数据增强。例如上面的代码中我们使用了Compose函数来组合了两个图像处理操作ToTensor将图像转换为Tensor和Normalize标准化图像。 4.2.3 torchvision.models torchvision.models模块提供了预训练的模型如ResNet、VGG、AlexNet等。我们可以非常方便地加载这些模型并使用这些模型进行迁移学习。 1 2 3 4 import torchvision.models as models # 加载预训练的resnet18模型 resnet18 models.resnet18(pretrainedTrue) 以上就是torchvision的基本使用它为我们提供了非常丰富的工具可以大大提升我们处理图像数据的效率。 4.3 使用TensorBoard进行可视化 TensorBoard 是一个可视化工具它可以帮助我们更好地理解优化和调试深度学习模型。PyTorch 提供了对 TensorBoard 的支持我们可以非常方便地使用 TensorBoard 来监控模型的训练过程比较不同模型的性能可视化模型结构等等。 4.3.1 启动 TensorBoard 要启动 TensorBoard我们需要在命令行中运行 tensorboard --logdirruns 命令其中 runs 是保存 TensorBoard 数据的目录。 4.3.2 记录数据 我们可以使用 torch.utils.tensorboard 模块来记录数据。首先我们需要创建一个 SummaryWriter 对象然后通过这个对象的方法来记录数据。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 from torch.utils.tensorboard import SummaryWriter # 创建一个 SummaryWriter 对象 writer SummaryWriter(runs/experiment1) # 使用 writer 来记录数据 for n_iter in range(100):     writer.add_scalar(Loss/train, np.random.random(), n_iter)     writer.add_scalar(Loss/test, np.random.random(), n_iter)     writer.add_scalar(Accuracy/train, np.random.random(), n_iter)     writer.add_scalar(Accuracy/test, np.random.random(), n_iter) # 关闭 writer writer.close() 4.3.3 可视化模型结构 我们也可以使用 TensorBoard 来可视化模型结构。 1 2 # 添加模型 writer.add_graph(model, images) 4.3.4 可视化高维数据 我们还可以使用 TensorBoard 的嵌入功能来可视化高维数据如图像特征、词嵌入等。 1 2 # 添加嵌入 writer.add_embedding(features, metadataclass_labels, label_imgimages) 以上就是 TensorBoard 的基本使用方法。通过使用 TensorBoard我们可以更好地理解和优化我们的模型。 5. PyTorch实战案例 在这一部分中我们将通过一个实战案例来详细介绍如何使用PyTorch进行深度学习模型的开发。我们将使用CIFAR10数据集来训练一个卷积神经网络Convolutional Neural NetworkCNN。 5.1 数据加载和预处理 首先我们需要加载数据并进行预处理。我们将使用torchvision包来下载CIFAR10数据集并使用transforms模块来对数据进行预处理。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 import torch from torchvision import datasets, transforms # 定义数据预处理操作 transform transforms.Compose([     transforms.RandomHorizontalFlip(),  # 数据增强随机翻转图片     transforms.RandomCrop(32, padding4),  # 数据增强随机裁剪图片     transforms.ToTensor(),  # 将PIL.Image或者numpy.ndarray数据类型转化为torch.FloadTensor并归一化到[0.0, 1.0]     transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))  # 标准化这里的均值和标准差是CIFAR10数据集的 ]) # 下载并加载训练数据集 trainset datasets.CIFAR10(root./data, trainTrue, downloadTrue, transformtransform) trainloader torch.utils.data.DataLoader(trainset, batch_size64, shuffleTrue, num_workers2) # 下载并加载测试数据集 testset datasets.CIFAR10(root./data, trainFalse, downloadTrue, transformtransform) testloader torch.utils.data.DataLoader(testset, batch_size64, shuffleFalse, num_workers2) 在这段代码中我们首先定义了一系列的数据预处理操作然后使用datasets.CIFAR10来下载CIFAR10数据集并进行预处理最后使用torch.utils.data.DataLoader来创建数据加载器它可以帮助我们在训练过程中按照批次获取数据。 5.2 定义网络模型 接下来我们定义我们的卷积神经网络模型。在这个案例中我们将使用两个卷积层和两个全连接层。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 import torch.nn as nn import torch.nn.functional as F class Net(nn.Module):     def __init__(self):         super(Net, self).__init__()         self.conv1 nn.Conv2d(3, 6, 5)  # 输入通道数3输出通道数6卷积核大小5         self.pool nn.MaxPool2d(2, 2)  # 最大池化核大小2步长2         self.conv2 nn.Conv2d(6, 16, 5)  # 输入通道数6输出通道数16卷积核大小5         self.fc1 nn.Linear(16 * 5 * 5, 120)  # 全连接层输入维度16*5*5输出维度120         self.fc2 nn.Linear(120, 84)  # 全连接层输入维度120输出维度84         self.fc3 nn.Linear(84, 10)  # 全连接层输入维度84输出维度10CIFAR10有10类     def forward(self, x):         x self.pool(F.relu(self.conv1(x)))  # 第一层卷积ReLU激活函数池化         x self.pool(F.relu(self.conv2(x)))  # 第二层卷积ReLU激活函数池化         x x.view(-1, 16 * 5 * 5)  # 将特征图展平         x F.relu(self.fc1(x))  # 第一层全连接ReLU激活函数         x F.relu(self.fc2(x))  # 第二层全连接ReLU激活函数         x self.fc3(x)  # 第三层全连接         return x # 创建网络 net Net() 在这个网络模型中我们使用nn.Module来定义我们的网络模型然后在__init__方法中定义网络的层最后在forward方法中定义网络的前向传播过程。 5.3 定义损失函数和优化器 现在我们已经有了数据和模型下一步我们需要定义损失函数和优化器。损失函数用于衡量模型的预测与真实标签的差距优化器则用于优化模型的参数以减少损失。 在这个案例中我们将使用交叉熵损失函数Cross Entropy Loss和随机梯度下降优化器Stochastic Gradient DescentSGD。 1 2 3 4 5 6 7 import torch.optim as optim # 定义损失函数 criterion nn.CrossEntropyLoss() # 定义优化器 optimizer optim.SGD(net.parameters(), lr0.001, momentum0.9) 在这段代码中我们首先使用nn.CrossEntropyLoss来定义损失函数然后使用optim.SGD来定义优化器。我们需要将网络的参数传递给优化器然后设置学习率和动量。 5.4 训练网络 一切准备就绪后我们开始训练网络。在训练过程中我们首先通过网络进行前向传播得到输出然后计算输出与真实标签的损失接着通过后向传播计算梯度最后使用优化器更新模型参数。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 for epoch in range(2):  # 在数据集上训练两遍     running_loss 0.0     for i, data in enumerate(trainloader, 0):         # 获取输入数据         inputs, labels data         # 梯度清零         optimizer.zero_grad()         # 前向传播         outputs net(inputs)         # 计算损失         loss criterion(outputs, labels)         # 反向传播         loss.backward()         # 更新参数         optimizer.step()         # 打印统计信息         running_loss loss.item()         if i % 2000 1999:  # 每2000个批次打印一次             print([%d, %5d] loss: %.3f %                   (epoch 1, i 1, running_loss / 2000))             running_loss 0.0 print(Finished Training) 在这段代码中我们首先对数据集进行两轮训练。在每轮训练中我们遍历数据加载器获取一批数据然后通过网络进行前向传播得到输出计算损失进行反向传播最后更新参数。我们还在每2000个批次后打印一次损失信息以便我们了解训练过程。 5.5 测试网络 训练完成后我们需要在测试集上测试网络的性能。这可以让我们了解模型在未见过的数据上的表现如何以评估其泛化能力。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 # 加载一些测试图片 dataiter iter(testloader) images, labels dataiter.next() # 打印图片 imshow(torchvision.utils.make_grid(images)) # 显示真实的标签 print(GroundTruth: , .join(%5s % classes[labels[j]] for j in range(4))) # 让网络做出预测 outputs net(images) # 预测的标签是最大输出的标签 _, predicted torch.max(outputs, 1) # 显示预测的标签 print(Predicted: , .join(%5s % classes[predicted[j]] for j in range(4))) # 在整个测试集上测试网络 correct 0 total 0 with torch.no_grad():     for data in testloader:         images, labels data         outputs net(images)         _, predicted torch.max(outputs.data, 1)         total labels.size(0)         correct (predicted labels).sum().item() print(Accuracy of the network on the 10000 test images: %d %% % (     100 * correct / total)) 在这段代码中我们首先加载一些测试图片并打印出真实的标签。然后我们让网络对这些图片做出预测并打印出预测的标签。最后我们在整个测试集上测试网络并打印出网络在测试集上的准确率。 5.6 保存和加载模型 在训练完网络并且对其进行了测试后我们可能希望保存训练好的模型以便于将来使用或者继续训练。 1 2 # 保存模型 torch.save(net.state_dict(), ./cifar_net.pth) 在这段代码中我们使用torch.save函数将训练好的模型参数通过net.state_dict()获得保存到文件中。 当我们需要加载模型时首先需要创建一个新的模型实例然后使用load_state_dict方法将参数加载到模型中。 1 2 3 # 加载模型 net Net()  # 创建新的网络实例 net.load_state_dict(torch.load(./cifar_net.pth))  # 加载模型参数 需要注意的是load_state_dict方法加载的是模型的参数而不是模型本身。因此在加载模型参数之前你需要先创建一个模型实例这个模型需要与保存的模型具有相同的结构。 6. 总结 这篇文章通过详细且实践性的方式介绍了 PyTorch 的使用包括环境安装、基础知识、张量操作、自动求导机制、神经网络创建、数据处理、模型训练、测试以及模型的保存和加载。 我们利用 PyTorch 从头到尾完成了一个完整的神经网络训练流程并在 CIFAR10 数据集上测试了网络的性能。在这个过程中我们深入了解了 PyTorch 提供的各种功能和工具。 希望这篇文章能对你学习 PyTorch 提供帮助对于想要更深入了解 PyTorch 的读者我建议参考 PyTorch 的官方文档以及各种开源教程。实践是最好的学习方法只有通过大量的练习和实践才能真正掌握 PyTorch 和深度学习。 谢谢你的阅读希望你在深度学习的道路上越走越远
http://www.w-s-a.com/news/520510/

相关文章:

  • 用什么做网站的访问量统计制作手工作品
  • 微信公众号搭建网站河南卫生基层系统网站建设
  • steam账号注册网站重庆手机版建站系统哪家好
  • 中新生态城建设局门户网站wordpress云盘视频播放
  • 大型网站开发基本流程wordpress记录用户搜索
  • 云服务器安装win系统做网站wordpress边栏扩大尺寸
  • 网站开发面试自我介绍软件下载网站如何建设
  • 可以做翻译任务的网站陕西省建设厅八大员证
  • 昆明 网站推广重庆网页优化seo公司
  • 网站排名下降怎么上去设计一套app页面多少钱
  • 专门用来查找网址的网站查公司名字是否被注册
  • 自己创建网站教程河南省建设厅官方网站李学军
  • 一个网站需要多少容量怎样免费设计网站建设
  • 建设工程交易中心网站12306的网站是哪个公司做的
  • 建设网站经营范围自己给公司做网站
  • 河北省住房建设厅政务网站网络营销推广的岗位职责有哪些
  • 上海网站建设优化价格孝义做网站的公司
  • 哪个公司网站做的最好义乌 网站 制作
  • 百度站长工具综合查询wordpress 上传pdf
  • 旅游短租公寓网站建设深圳龙岗招聘网
  • 做海淘是在哪个网站网络查控系统设计方案
  • o2o网站建设代理商微信公众号开发文档
  • 网站设计课程总结关于网站备案的公告
  • 网站建设与运营意义到哪查找网站域名
  • 网站及单位网站建设情况眉县住房和城市建设局网站
  • 网站是否能够被恶意镜像wordpress占用
  • 经典设计网站网站等保测评怎么做
  • 重庆做网站公司贴吧廊坊公司快速建站
  • 海外贸易在什么网站做怎么排名到百度第一页
  • 线上注册公司是在哪个网站做高仿网站