当前位置: 首页 > news >正文

蓝顿长沙网站制作公司中国农村建设网站

蓝顿长沙网站制作公司,中国农村建设网站,新手公司网页设计模板,淘宝客网站的建设文章目录一、Mnist 分类任务简介二、Mnist 数据集的读取三、 Mnist 分类任务实现1. 标签和简单网络架构2. 具体代码实现四、使用 TensorDataset 和 DataLoader 简化本文参加新星计划人工智能(Pytorch)赛道#xff1a;https://bbs.csdn.net/topics/613989052 一、Mnist 分类任… 文章目录一、Mnist 分类任务简介二、Mnist 数据集的读取三、 Mnist 分类任务实现1. 标签和简单网络架构2. 具体代码实现四、使用 TensorDataset 和 DataLoader 简化本文参加新星计划人工智能(Pytorch)赛道https://bbs.csdn.net/topics/613989052 一、Mnist 分类任务简介 在上一篇博客当中我们通过搭建 PyTorch 神经网络实现了气温预测这本质上是一个回归任务。在本次博文当中我们使用 PyTorch 做一个分类任务。其实分类任务和回归任务在本质上没有任何区别只是说在结果上是不同的损失函数是不同的中间的网络架构却是大体一致的。在本次的分类任务当中我们使用的数据集是 Mnist 数据集这个数据集大家都比较熟悉可以在 http://yann.lecun.com/exdb/mnist/ 中获取主要包括四个文件 文件名称大小内容train-images-idx3-ubyte.gz9,681 kb55000 张训练集5000 张验证集train-labels-idx1-ubyte.gz29 kb训练集图片对应的标签t10k-images-idx3-ubyte.gz1,611kb10000 张测试集t10k-labels-idx1-ubyte.gz5 kb测试集图片对应的标签 在上述在上述文件中训练集 train 一共包含了 60000 张图像和标签而测试集一共包含了 10000 张图像和标签。idx3 表示 3 维ubyte 表示是以字节的形式进行存储的t10k 表示 10000 张测试图片test10000。每张图片是一个 28*28 像素点的 0 ~ 9 的灰质手写数字图片黑底白字图像像素值为 0 ~ 255越大该点越白。本次分类任务主要包含如下的几个部分1 网络基本构建与训练方法常用函数解析。2 torch.nn.functional 模块。3 nn.Module 模块。 二、Mnist 数据集的读取 对于 Mnist 数据集我们可以通过代码编写就可以实现自动下载。 %matplotlib inline from pathlib import Path import requests ​ DATA_PATH Path(data) PATH DATA_PATH / mnist ​ PATH.mkdir(parentsTrue, exist_okTrue) ​ URL http://deeplearning.net/data/mnist/ FILENAME mnist.pkl.gz对于我们上面定义的下载路径等等会进行自动判断如果该路径下没有 Minst 数据集的话就会自动进行下载。 if not (PATH / FILENAME).exists():content requests.get(URL FILENAME).content(PATH / FILENAME).open(wb).write(content)由于下载出来的数据集是压缩包的状态因此我们还需要对其进行解压具体的代码详见下面。 import pickle import gzip ​ with gzip.open((PATH / FILENAME).as_posix(), rb) as f:((x_train, y_train), (x_valid, y_valid), _) pickle.load(f, encodinglatin-1)在上述工作准备完成后我们可以先查看一个数据观察他的特征。 from matplotlib import pyplot import numpy as np ​ pyplot.imshow(x_train[0].reshape((28, 28)), cmapgray) print(x_train.shape) #(50000, 784)在此处我们查看的训练集当中的第一个数据大小重构为 28281表示长是 28宽是 28颜色通道是 1黑白图就只有一个颜色通道颜色设置为灰色。在查看第一个数据的同时我们也输出整个训练集的数据大小其中(50000, 784) 中的 50000 表示训练集一共有 50000 个数据样本784 表示训练集中每个样本有 784 个像素点可以理解成 784 个特征。 三、 Mnist 分类任务实现 1. 标签和简单网络架构 在分类任务当中标签的设计是有所不同的。 很多人认为预测出来的 9具体指的是 0123456789 当中的具体哪一个但实际上并不是这样的他也是一个 One-Hot 的编码他预测的出来的不是一个具体的数值而是十个概率就是当前这个输入属于 0-9 这十个数字的概率是多少。以上图为例该输入属于 0 的概率就是 0属于 1 的概率就是 12%属于 9 的概率就是 87%属于 9 的概率最高因此该输入的输出就是 9。 对于这个网络架构由于我们的每个数据样本都有 784 个像素点中间进行特征提取得到一定数量的特征最终得到 10 个输出通过 Softmax 层得到是个概率。 2. 具体代码实现 需要注意的是我们需要先将数据转换成 tensor 才能参与后续建模训练。这里的数据包括 x_train, y_train, x_valid, y_valid 四种对于他们的含义我们可以这样理解1 x_train 包括所有自变量这些变量将用于训练模型。2 y_train 是指因变量需要此模型进行预测其中包括针对自变量的类别标签我们需要在训练/拟合模型时指定我们的因变量。3 x_valid 也就是 x_test这些自变量将不会在训练阶段使用并将用于进行预测以测试模型的准确性。4 y_valid 也就是 y_test此数据具有测试数据的类别标签这些标签将用于测试实际类别和预测类别之间的准确性。 import torch ​ x_train, y_train, x_valid, y_valid map(torch.tensor, (x_train, y_train, x_valid, y_valid) ) n, c x_train.shape x_train, x_train.shape, y_train.min(), y_train.max() print(x_train, y_train) print(x_train.shape) print(y_train.min(), y_train.max()) #tensor([[0., 0., 0., ..., 0., 0., 0.], # [0., 0., 0., ..., 0., 0., 0.], # [0., 0., 0., ..., 0., 0., 0.], # ..., # [0., 0., 0., ..., 0., 0., 0.], # [0., 0., 0., ..., 0., 0., 0.], # [0., 0., 0., ..., 0., 0., 0.]]) tensor([5, 0, 4, ..., 8, 4, 8]) #torch.Size([50000, 784]) #tensor(0) tensor(9)在模型训练的过程中大家经常会看到 nn.Module 和 nn.functional。那什么时候使用 nn.Module什么时候使用 nn.functional 呢一般情况下如果模型有可学习的参数最好用 nn.Module其他情况 nn.functional 相对更简单一些。我们先导入需要的模块包。 import torch.nn.functional as F ​ loss_func F.cross_entropy ​ def model(xb):return xb.mm(weights) bias然后进行参数的设定。 bs 64 xb x_train[0:bs] # a mini-batch from x yb y_train[0:bs] weights torch.randn([784, 10], dtype torch.float, requires_grad True) bs 64 bias torch.zeros(10, requires_gradTrue) ​ print(loss_func(model(xb), yb)) #tensor(10.7988, grad_fnNllLossBackward)我们也创建一个 model 来更简化代码。在这中间必须继承 nn.Module 且在其构造函数中需调用 nn.Module 的构造函数无需写反向传播函数nn.Module 能够利用 autograd 自动实现反向传播Module 中的可学习参数可以通过 named_parameters() 或者 parameters() 返回迭代器。 from torch import nn ​ class Mnist_NN(nn.Module):def __init__(self):super().__init__()self.hidden1 nn.Linear(784, 128) #隐藏层1784*128self.hidden2 nn.Linear(128, 256) #隐藏层2128*256self.out nn.Linear(256, 10) #输出层256*10 ​def forward(self, x):x F.relu(self.hidden1(x))x F.relu(self.hidden2(x))x self.out(x)return xnet Mnist_NN() print(net) ​#Mnist_NN( # (hidden1): Linear(in_features784, out_features128, biasTrue) # (hidden2): Linear(in_features128, out_features256, biasTrue) # (out): Linear(in_features256, out_features10, biasTrue) #)我们可以打印定义好名字里的权重和偏置项首先打印名字然后打印参数最后打印参数的维度。 for name, parameter in net.named_parameters():print(name, parameter,parameter.size()) #hidden1.weight Parameter containing: #tensor([[ 0.0018, 0.0218, 0.0036, ..., -0.0286, -0.0166, 0.0089], # [-0.0349, 0.0268, 0.0328, ..., 0.0263, 0.0200, -0.0137], # [ 0.0061, 0.0060, -0.0351, ..., 0.0130, -0.0085, 0.0073], # ..., # [-0.0231, 0.0195, -0.0205, ..., -0.0207, -0.0103, -0.0223], # [-0.0299, 0.0305, 0.0098, ..., 0.0184, -0.0247, -0.0207], # [-0.0306, -0.0252, -0.0341, ..., 0.0136, -0.0285, 0.0057]], # requires_gradTrue) torch.Size([128, 784]) #hidden1.bias Parameter containing: #tensor([ 0.0072, -0.0269, -0.0320, -0.0162, 0.0102, 0.0189, -0.0118, -0.0063, # -0.0277, 0.0349, 0.0267, -0.0035, 0.0127, -0.0152, -0.0070, 0.0228, # -0.0029, 0.0049, 0.0072, 0.0002, -0.0356, 0.0097, -0.0003, -0.0223, # -0.0028, -0.0120, -0.0060, -0.0063, 0.0237, 0.0142, 0.0044, -0.0005, # 0.0349, -0.0132, 0.0138, -0.0295, -0.0299, 0.0074, 0.0231, 0.0292, # -0.0178, 0.0046, 0.0043, -0.0195, 0.0175, -0.0069, 0.0228, 0.0169, # 0.0339, 0.0245, -0.0326, -0.0260, -0.0029, 0.0028, 0.0322, -0.0209, # -0.0287, 0.0195, 0.0188, 0.0261, 0.0148, -0.0195, -0.0094, -0.0294, # -0.0209, -0.0142, 0.0131, 0.0273, 0.0017, 0.0219, 0.0187, 0.0161, # 0.0203, 0.0332, 0.0225, 0.0154, 0.0169, -0.0346, -0.0114, 0.0277, # 0.0292, -0.0164, 0.0001, -0.0299, -0.0076, -0.0128, -0.0076, -0.0080, # -0.0209, -0.0194, -0.0143, 0.0292, -0.0316, -0.0188, -0.0052, 0.0013, # -0.0247, 0.0352, -0.0253, -0.0306, 0.0035, -0.0253, 0.0167, -0.0260, # -0.0179, -0.0342, 0.0033, -0.0287, -0.0272, 0.0238, 0.0323, 0.0108, # 0.0097, 0.0219, 0.0111, 0.0208, -0.0279, 0.0324, -0.0325, -0.0166, # -0.0010, -0.0007, 0.0298, 0.0329, 0.0012, -0.0073, -0.0010, 0.0057], # requires_gradTrue) torch.Size([128]) #hidden2.weight Parameter containing: #tensor([[-0.0383, -0.0649, 0.0665, ..., -0.0312, 0.0394, -0.0801], # [-0.0189, -0.0342, 0.0431, ..., -0.0321, 0.0072, 0.0367], # [ 0.0289, 0.0780, 0.0496, ..., 0.0018, -0.0604, -0.0156], # ..., # [-0.0360, 0.0394, -0.0615, ..., 0.0233, -0.0536, -0.0266], # [ 0.0416, 0.0082, -0.0345, ..., 0.0808, -0.0308, -0.0403], # [-0.0477, 0.0136, -0.0408, ..., 0.0180, -0.0316, -0.0782]], # requires_gradTrue) torch.Size([256, 128]) #hidden2.bias Parameter containing: #tensor([-0.0694, -0.0363, -0.0178, 0.0206, -0.0875, -0.0876, -0.0369, -0.0386, # 0.0642, -0.0738, -0.0017, -0.0243, -0.0054, 0.0757, -0.0254, 0.0050, # 0.0519, -0.0695, 0.0318, -0.0042, -0.0189, -0.0263, -0.0627, -0.0691, # 0.0713, -0.0696, -0.0672, 0.0297, 0.0102, 0.0040, 0.0830, 0.0214, # 0.0714, 0.0327, -0.0582, -0.0354, 0.0621, 0.0475, 0.0490, 0.0331, # -0.0111, -0.0469, -0.0695, -0.0062, -0.0432, -0.0132, -0.0856, -0.0219, # -0.0185, -0.0517, 0.0017, -0.0788, -0.0403, 0.0039, 0.0544, -0.0496, # 0.0588, -0.0068, 0.0496, 0.0588, -0.0100, 0.0731, 0.0071, -0.0155, # -0.0872, -0.0504, 0.0499, 0.0628, -0.0057, 0.0530, -0.0518, -0.0049, # 0.0767, 0.0743, 0.0748, -0.0438, 0.0235, -0.0809, 0.0140, -0.0374, # 0.0615, -0.0177, 0.0061, -0.0013, -0.0138, -0.0750, -0.0550, 0.0732, # 0.0050, 0.0778, 0.0415, 0.0487, 0.0522, 0.0867, -0.0255, -0.0264, # 0.0829, 0.0599, 0.0194, 0.0831, -0.0562, 0.0487, -0.0411, 0.0237, # 0.0347, -0.0194, -0.0560, -0.0562, -0.0076, 0.0459, -0.0477, 0.0345, # -0.0575, -0.0005, 0.0174, 0.0855, -0.0257, -0.0279, -0.0348, -0.0114, # -0.0823, -0.0075, -0.0524, 0.0331, 0.0387, -0.0575, 0.0068, -0.0590, # -0.0101, -0.0880, -0.0375, 0.0033, -0.0172, -0.0641, -0.0797, 0.0407, # 0.0741, -0.0041, -0.0608, 0.0672, -0.0464, -0.0716, -0.0191, -0.0645, # 0.0397, 0.0013, 0.0063, 0.0370, 0.0475, -0.0535, 0.0721, -0.0431, # 0.0053, -0.0568, -0.0228, -0.0260, -0.0784, -0.0148, 0.0229, -0.0095, # -0.0040, 0.0025, 0.0781, 0.0140, -0.0561, 0.0384, -0.0011, -0.0366, # 0.0345, 0.0015, 0.0294, -0.0734, -0.0852, -0.0015, -0.0747, -0.0100, # 0.0801, -0.0739, 0.0611, 0.0536, 0.0298, -0.0097, 0.0017, -0.0398, # 0.0076, -0.0759, -0.0293, 0.0344, -0.0463, -0.0270, 0.0447, 0.0814, # -0.0193, -0.0559, 0.0160, 0.0216, -0.0346, 0.0316, 0.0881, -0.0652, # -0.0169, 0.0117, -0.0107, -0.0754, -0.0231, -0.0291, 0.0210, 0.0427, # 0.0418, 0.0040, 0.0762, 0.0645, -0.0368, -0.0229, -0.0569, -0.0881, # -0.0660, 0.0297, 0.0433, -0.0777, 0.0212, -0.0601, 0.0795, -0.0511, # -0.0634, 0.0720, 0.0016, 0.0693, -0.0547, -0.0652, -0.0480, 0.0759, # 0.0194, -0.0328, -0.0211, -0.0025, -0.0055, -0.0157, 0.0817, 0.0030, # 0.0310, -0.0735, 0.0160, -0.0368, 0.0528, -0.0675, -0.0083, -0.0427, # -0.0872, 0.0699, 0.0795, -0.0738, -0.0639, 0.0350, 0.0114, 0.0303], # requires_gradTrue) torch.Size([256]) #out.weight Parameter containing: #tensor([[ 0.0232, -0.0571, 0.0439, ..., -0.0417, -0.0237, 0.0183], # [ 0.0210, 0.0607, 0.0277, ..., -0.0015, 0.0571, 0.0502], # [ 0.0297, -0.0393, 0.0616, ..., 0.0131, -0.0163, -0.0239], # ..., # [ 0.0416, 0.0309, -0.0441, ..., -0.0493, 0.0284, -0.0230], # [ 0.0404, -0.0564, 0.0442, ..., -0.0271, -0.0526, -0.0554], # [-0.0404, -0.0049, -0.0256, ..., -0.0262, -0.0130, 0.0057]], # requires_gradTrue) torch.Size([10, 256]) #out.bias Parameter containing: #tensor([-0.0536, 0.0007, 0.0227, -0.0072, -0.0168, -0.0125, -0.0207, -0.0558, # 0.0579, -0.0439], requires_gradTrue) torch.Size([10])四、使用 TensorDataset 和 DataLoader 简化 自己构建数据集使用 batch 取数据会略显麻烦因此我们可以使用 TensorDataset 和 DataLoader 这两个模块进行简化。 from torch.utils.data import TensorDataset from torch.utils.data import DataLoader ​ train_ds TensorDataset(x_train, y_train) train_dl DataLoader(train_ds, batch_sizebs, shuffleTrue) ​ valid_ds TensorDataset(x_valid, y_valid) valid_dl DataLoader(valid_ds, batch_sizebs * 2) def get_data(train_ds, valid_ds, bs):return (DataLoader(train_ds, batch_sizebs, shuffleTrue),DataLoader(valid_ds, batch_sizebs * 2),)一般在训练模型时加上 model.train()这样会正常使用 Batch Normalization 和 Dropout。测试的时候一般选择 model.eval()这样就不会使用 Batch Normalization 和 Dropout。 import numpy as np ​ def fit(steps, model, loss_func, opt, train_dl, valid_dl):for step in range(steps):model.train()for xb, yb in train_dl:loss_batch(model, loss_func, xb, yb, opt) ​model.eval()with torch.no_grad():losses, nums zip(*[loss_batch(model, loss_func, xb, yb) for xb, yb in valid_dl])val_loss np.sum(np.multiply(losses, nums)) / np.sum(nums)print(当前step:str(step), 验证集损失str(val_loss)) from torch import optim def get_model():model Mnist_NN()return model, optim.SGD(model.parameters(), lr0.001) def loss_batch(model, loss_func, xb, yb, optNone):loss loss_func(model(xb), yb) ​if opt is not None:loss.backward()opt.step()opt.zero_grad() ​return loss.item(), len(xb)我们也可以像上篇博文一样使用三行代码进行解决。 train_dl, valid_dl get_data(train_ds, valid_ds, bs) model, opt get_model() fit(25, model, loss_func, opt, train_dl, valid_dl) #当前step:0 验证集损失2.2796445930480957 #当前step:1 验证集损失2.2440698066711424 #当前step:2 验证集损失2.1889826164245605 #当前step:3 验证集损失2.0985311767578123 #当前step:4 验证集损失1.9517273582458496 #当前step:5 验证集损失1.7341805934906005 #当前step:6 验证集损失1.4719875366210937 #当前step:7 验证集损失1.2273896869659424 #当前step:8 验证集损失1.0362271406173706 #当前step:9 验证集损失0.8963696184158325 #当前step:10 验证集损失0.7927186088562012 #当前step:11 验证集损失0.7141492074012756 #当前step:12 验证集损失0.6529350900650024 #当前step:13 验证集损失0.60417300491333 #当前step:14 验证集损失0.5643046331882476 #当前step:15 验证集损失0.5317994566917419 ##当前step:16 验证集损失0.5047958114624024 #当前step:17 验证集损失0.4813900615692139 #当前step:18 验证集损失0.4618900228500366 #当前step:19 验证集损失0.4443243554592133 #当前step:20 验证集损失0.4297310716629028 #当前step:21 验证集损失0.416976597738266 #当前step:22 验证集损失0.406348459148407 #当前step:23 验证集损失0.3963301926612854 #当前step:24 验证集损失0.38733808159828187​
http://www.w-s-a.com/news/162209/

相关文章:

  • 设计网站过程wordpress+分页静态
  • 临海网站制作好了如何上线如果安装wordpress
  • 长沙 学校网站建设网站制作价格上海
  • 九江网站推广徽hyhyk1国家住房部和城乡建设部 网站首页
  • 阿克苏网站建设咨询动漫设计与制作属于什么大类
  • 网站编辑做多久可以升职wordpress版权修改
  • 网站开发维护成本计算国外外贸平台
  • 简单的招聘网站怎么做购物网站功能报价
  • 哪个网站做中高端衣服建设自己网站的流程
  • 网站建设概况做网站的是怎么赚钱的
  • 网站发布信息的基本流程现在都不用dw做网站了吗
  • 赣州热门网站深圳龙岗做网站的公司
  • 中国最大的建站平台广告传媒公司取名
  • 深圳网站设计公司专业吗学动漫设计后悔死了
  • 企业网站形象建设网站开发入职转正申请书
  • 网站设计步骤济南建设网中标公告
  • 石佛营网站建设wordpress关健词
  • 您的网站空间即将过期建站 discuz
  • 上海简站商贸有限公司福州哪家专业网站设计制作最好
  • 博客网站开发流程苏州专业做网站的公司哪家好
  • 四川手机网站建设西安 网站 高端 公司
  • 织梦大气绿色大气农业能源化工机械产品企业网站源码模版建筑工程知识零基础
  • 广州番禺网站公司v2017网站开发
  • 微信公众号怎么做微网站wordpress和dz
  • 西部数码网站管理助手 301福州搜索优化实力
  • 响应式网站介绍页面模板功能找不到
  • 公司网站如何seo自己做资讯网站
  • 天津网站建设软件开发招聘企业信用信息查询公示系统上海
  • 网站备案中做正品的网站
  • 网站建设0基础学起青海企业网站开发定制