当前位置: 首页 > news >正文

有了源码怎么搭建网站wordpress页面列表小工具

有了源码怎么搭建网站,wordpress页面列表小工具,织梦做网站主页容易吗,新开传奇手游新服网神经网络的基本骨架 import torch from torch import nn #nn模块是PyTorch中用于构建神经网络模型的核心模块。它提供了各种类和函数#xff0c;可以帮助你定义和训练神经网络。class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() #调用 super(Tudui,…神经网络的基本骨架 import torch from torch import nn #nn模块是PyTorch中用于构建神经网络模型的核心模块。它提供了各种类和函数可以帮助你定义和训练神经网络。class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__() #调用 super(Tudui, self).__init__() 初始化父类 nn.Module这样我们才能正常使用神经网络模块的功能。def forward(self,input):output input 1 #在 forward 方法中定义了模型的前向传播过程。输入 input 加上 1并将结果作为输出返回。return outputtudui Tudui() x torch.tensor(1.0) output tudui(x) print(output) 卷积操作 import torch import torch.nn.functional as F #torch.nn.functional模块提供了一系列的函数用于构建神经网络的各种操作如激活函数、损失函数、池化操作等。# torch.tensor是PyTorch中的一个类用于创建多维数组或张量。它是使用PyTorch进行科学计算和深度学习的核心数据结构之一。 input torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]])kernel torch.tensor([[1, 2, 1],[0, 1, 0],[2, 1, 0]]) #input是一个张量通过调用torch.reshape(input, (1, 1, 5, 5))将其形状重塑为(1, 1, 5, 5)。这意味着原先的张量形状为(5, 5)重塑后的张量形状为(1, 1, 5, 5)。 input torch.reshape(input, (1, 1, 5, 5)) kernel torch.reshape(kernel, (1, 1, 3, 3))output F.conv2d(input, kernel, stride1) #conv2d函数接收三个参数input、kernel和stride。它执行了一个二维卷积操作将输入张量input与卷积核张量kernel进行卷积运算并返回卷积结果。stride参数指定了卷积操作的步幅默认为1。 print(output)output2 F.conv2d(input, kernel, stride2) print(output2)output3 F.conv2d(input, kernel, stride1, padding1)#padding参数用于在输入张量的周围添加零填充zero-padding以控制输出的尺寸。通过在输入的周围添加零值像素可以保持输出具有与输入相同的空间尺寸。 print(output3) 卷积层 import torch import torchvision from torch import nn from torch.nn import Conv2d from torch.utils.data import DataLoader #用于加载数据集的实用工具类。 from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(rD:\PyCharm\learn_torch\dataset, trainFalse, transformtorchvision.transforms.ToTensor(),downloadTrue)#加载CIFAR-10数据集。#DataLoader类主要用于将数据集分割成小批量数据并提供数据加载的功能。它接收两个主要参数dataset和batch_size。 # dataset参数是一个数据集对象可以是之前加载的CIFAR-10数据集 (torchvision.datasets.CIFAR10) 或其他自定义的数据集对象。 # batch_size参数指定了每个小批量数据的样本数量。在这个例子中batch_size被设置为64表示每个小批量数据中包含64个样本。 dataLoader DataLoader(dataset, batch_size64)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()#Conv2d 类需要指定一些参数来定义卷积层的属性# in_channels输入张量的通道数这里为 3表示输入是 RGB 彩色图像具有 3 个通道。# out_channels输出张量的通道数这里为 6表示输出将包含 6 个通道。# kernel_size卷积核的大小这里为 3表示卷积核的宽度和高度都为 3。# stride卷积的步幅大小这里为 1表示每次卷积的滑动步幅为 1。# padding零填充的大小这里为 0表示不对输入进行零填充。self.conv1 Conv2d(in_channels3,out_channels6,kernel_size3,stride1,padding0)#forward(self, x) 是模型类中的方法用于定义模型的前向传播过程。在该方法中输入张量 x 经过模型的各个层如卷积层、池化层、全连接层等进行计算并返回最终的输出结果。# x self.conv1(x)# x torch.relu(x)# x x.view(x.size(0), -1)# x self.fc1(x)def forward(self,x):x self.conv1(x) #这行代码将输入张量 x 通过卷积层 conv1 进行卷积操作更新 x 的值为卷积操作的结果。return xtudui Tudui()write SummaryWriter(r../logs)#创建了一个 SummaryWriter 对象用于将训练过程中的数据写入到指定的日志目录中。step 0 for data in dataLoader:#这行代码将 data 数据拆分为 imgs 和 target 两个部分。# 假设 data 是一个包含图像和标签的数据集在进行训练或测试时常常需要将数据拆分为图像和对应的标签。这样可以方便地对图像进行处理和输入模型同时获取对应 的标签用于计算损失或评估模型性能。# imgs 表示图像数据target 表示对应的标签数据可能是一个类别标签、一个数字标签或者其他形式的标签。imgs, target dataoutput tudui(imgs)#将图像数据 imgs 作为输入传递给名为 tudui 的函数或模型并将输出结果赋值给变量 output。print(imgs.shape)print(output.shape)#torch.Size([64, 3, 32, 32])write.add_images(input, imgs, step)#torch.Size([64, 6, 30, 30])output torch.reshape(output, (-1, 3, 30, 30))#这行代码将名称为 “input” 的图像数据 imgs 添加到 SummaryWriter 对象中用于生成可视化的输入图像。# 在使用 TensorBoard 进行可视化时可以通过 SummaryWriter 对象的 add_images 方法将图像数据写入到日志文件中以便后续在 TensorBoard 中展示和分 析。# 第一个参数是图像的名称可以是任意字符串用于在# TensorBoard# 中标识不同的图像。# 第二个参数是图像数据在这里是# imgs# 变量可能是一个张量或数组表示一批图像数据。图像数据的形状通常是[batch_size, channels, height, width]。# 第三个参数是步数 / 迭代次数用于在# TensorBoard# 中确定图像数据对应的时间或步数。这个参数是可选的如果不提供则默认使用# SummaryWriter对象的全局步数。write.add_images(output,output, step)step step 1 最大池化 import torch import torchvision from torch import nn from torch.nn import MaxPool2d from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(r../dataset, trainFalse, downloadTrue, transformtorchvision.transforms.ToTensor())dataloader DataLoader(dataset, batch_size64)input torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]],dtypetorch.float32)#指定了数据的类型为 torch.float32这意味着张量中的元素将被解释为 32 位浮点数。# 第一个维度-1将根据其他维度确定以使得重塑后的总元素数量与原始张量保持一致。 # 第二个维度1表示每个批次中的通道数为 1。 # 第三个维度5表示每个图像的高度为 5。 # 第四个维度5表示每个图像的宽度为 5。 input torch.reshape(input, (-1, 1, 5, 5))print(input.shape)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()#池化操作是深度学习中常用的一种操作用于减小特征图的空间尺寸从而降低模型参数量和计算量并提取出更显著的特征。# kernel_size 3池化窗口的大小为 3x3。这意味着在进行池化操作时将以3x3的窗口滑动在输入特征图上每次选取窗口内的最大值作为输出。# ceil_mode False在默认情况下当输入特征图的大小除以池化窗口的大小时存在小数部分时输出特征图的大小将向下取整。即输入特征图大小与输出特征图 大小之间存在下取整关系。设为False表示不进行这种向上取整操作。self.maxpool MaxPool2d(kernel_size3, ceil_modeFalse)def forward(self, input):output self.maxpool(input)return outputtudui Tudui() # output tudui(input) # print(output)write SummaryWriter(r../logs--maxpool) step 0 for data in dataloader:imgs, target datawrite.add_images(input,imgs,step)output tudui(imgs)write.add_images(output, output, step)step step 1write.close() 非线性激活 import torch import torchvision from torch import nn from torch.nn import ReLU, Sigmoid from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterinput torch.tensor([[1, -0.5],[-1, 3]])output torch.reshape(input, (-1, 1, 2, 2)) print(output.shape)dataset torchvision.datasets.CIFAR10(../dataset, trainFalse, downloadTrue,transformtorchvision.transforms.ToTensor()) datalodar DataLoader(dataset, batch_size64)class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()self.relu1 ReLU() # ReLURectified Linear Unit是深度学习中常用的一种非线性激活函数。它的作用是在神经网络的模型中引入非线性映射以增强模型的表达能力。self.sigmoid1 Sigmoid() # Sigmoid激活函数是一种常用的非线性激活函数用于在神经网络中引入非线性变换。它的输出范围在 (0, 1) 之间将输入值映射到概率形式的输出。def forward(self, input):output self.sigmoid1(input)return outputtudui Tudui()writer SummaryWriter(../log_relu) step 0for data in datalodar:imgs, target datawriter.add_images(input, imgs, global_stepstep)output tudui(imgs)writer.add_images(output, imgs, global_stepstep)step step 1writer.close()线性层及其他层介绍 import torch import torchvision from torch import nn from torch.nn import Linear from torch.utils.data import DataLoaderdataset torchvision.datasets.CIFAR10(../dataset,trainFalse,transformtorchvision.transforms.ToTensor(),download True)dataloader DataLoader(dataset, batch_size64) class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()#self.linear是类中的一个成员变量它被赋值为一个Linear对象。Linear对象的构造函数需要两个参数输入特征的大小和输出特征的大小。在这里输入特征的大小为196608输出特征的大小为10。#linear Linear(in_features, out_features)# output linear(input)#in_features 表示输入的特征维度大小out_features 表示输出的特征维度大小。self.linear Linear(196608,10)def forward(self,input):output self.linear(input)return outputtudui Tudui()for data in dataloader:imgs, targets dataprint(imgs.shape)# output torch.reshape(imgs, (1, 1, 1, -1))output torch.flatten(imgs)#通过调用 torch.flatten 函数可以将输入张量 imgs 展平成一个一维张量。展平后的张量 output 中的元素顺序与原始张量保持一致只是维度形状变为一维。print(output.shape)output tudui(output)print(output.shape) 神经网络搭建和Sequential的使用 import torch from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential from torch.utils.tensorboard import SummaryWriterclass Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()# self.conv1 Conv2d(3, 32, 5, padding2)# self.maxpool1 MaxPool2d(2)# self.conv2 Conv2d(32, 32, 5, padding2)# self.maxpool2 MaxPool2d(2)# self.conv3 Conv2d(32, 64, 5, padding2)# self.maxpool3 MaxPool2d(2)# self.flatten Flatten()# self.linear1 Linear(1024, 64)# self.linear2 Linear(64, 10)# 这个模型使用了Sequential模型并依次添加了多个层来构建网络结构。每个层的作用如下# Conv2d(3, 32, 5, padding2)卷积层输入通道数为3输出通道数为32卷积核大小为5x5填充为2。# MaxPool2d(2)池化层池化核大小为2x2。# Conv2d(32, 32, 5, padding2)卷积层输入通道数为32输出通道数为32卷积核大小为5x5填充为2。# MaxPool2d(2)池化层池化核大小为2x2。# Conv2d(32, 64, 5, padding2)卷积层输入通道数为32输出通道数为64卷积核大小为5x5填充为2。# MaxPool2d(2)池化层池化核大小为2x2。# Flatten()展平层用于将多维的输入数据展平为一维。# Linear(1024, 64)全连接层输入维度为1024输出维度为64。# Linear(64, 10)全连接层输入维度为64输出维度为10。self.modul1 Sequential(Conv2d(3, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):# x self.conv1(x)# x self.maxpool1(x)# x self.conv2(x)# x self.maxpool2(x)# x self.conv3(x)# x self.maxpool3(x)# x self.flatten(x)# x self.linear1(x)# x self.linear2(x)x self.modul1(x)return xtudui Tudui() print(tudui) input torch.ones(64, 3, 32, 32) output tudui(input) print(output.shape)writer SummaryWriter(../logs_seq) writer.add_graph(tudui, input) writer.close()
http://www.w-s-a.com/news/261710/

相关文章:

  • 网站静态化设计html5手机网站制作
  • 深圳最简单的网站建设家居网站建设全网营销
  • 如何取消网站备案佛山网站优化公司
  • 网站开发 成都广水网站设计
  • 音乐网站建设目标合同管理系统
  • jq网站特效插件如何知道网站是否被k
  • 自己的网站怎么接广告网站搭建收费
  • 宁波大型网站制作建立一个网站 优帮云
  • 大连零基础网站建设教学电话有哪些比较好的做ppt好的网站
  • 哪个网站做logo设计我的建筑网
  • php电子商务网站开发沂源手机网站建设公司
  • html和php做网站哪个好3gcms企业手机网站整站源码asp
  • 网站建设网页设计案例云南建设厅网站删除
  • 杏坛网站制作太原做网站要多少钱呢
  • 做新闻类网站还有市场吗东莞黄页网广告
  • 地方网站做外卖专业做互联网招聘的网站有哪些
  • 网站推广公司兴田德润紧急网页升级紧急通知
  • 厦门做网站哪家强企业网站网页设计的步骤
  • 普拓网站建设济南行业网站建设
  • 燕郊 网站开发网站里的地图定位怎么做
  • 门户网站建设招标互联网创业项目概述
  • 用什么做网站比较好市场调研公司是做什么的
  • 电商网站充值消费系统绍兴网站优化
  • 深圳网站建设公司联虚拟币交易网站开发
  • 专业网站设计建设公司抖音代运营公司排名前十强
  • 做网站架构肃北蒙古族自治县建设局网站
  • 推广网站怎么建经济研究院网站建设方案
  • 网站建设商家淘宝客自建网站做还是用微信qq做
  • django做网站效率高吗涉县移动网站建设报价
  • 做外贸网站注册什么邮箱能够做渗透的网站