当前位置: 首页 > news >正文

做的最好的紫砂网站昭通建设局网站

做的最好的紫砂网站,昭通建设局网站,wordpress 图片轮播,常州网站建设方案维护经典的全连接神经网络 经典的全连接神经网络来包含四层网络#xff1a;输入层、两个隐含层和输出层#xff0c;将手写数字识别任务通过全连接神经网络表示#xff0c;如 图3 所示。 图3#xff1a;手写数字识别任务的全连接神经网络结构输入层#xff1a;将数据输入给神经…经典的全连接神经网络 经典的全连接神经网络来包含四层网络输入层、两个隐含层和输出层将手写数字识别任务通过全连接神经网络表示如 图3 所示。 图3手写数字识别任务的全连接神经网络结构输入层将数据输入给神经网络。在该任务中输入层的尺度为28×28的像素值。隐含层增加网络深度和复杂度隐含层的节点数是可以调整的节点数越多神经网络表示能力越强参数量也会增加。在该任务中中间的两个隐含层为10×10的结构通常隐含层会比输入层的尺寸小以便对关键信息做抽象激活函数使用常见的Sigmoid函数。输出层输出网络计算结果输出层的节点数是固定的。如果是回归问题节点数量为需要回归的数字数量。如果是分类问题则是分类标签的数量。在该任务中模型的输出是回归一个数字输出层的尺寸为1。 说明 隐含层引入非线性激活函数Sigmoid是为了增加神经网络的非线性能力。 举例来说如果一个神经网络采用线性变换有四个输入x1x_1x1​~x4x_4x4​一个输出yyy。假设第一层的变换是z1x1−x2z_1x_1-x_2z1​x1​−x2​和z2x3x4z_2x_3x_4z2​x3​x4​第二层的变换是yz1z2yz_1z_2yz1​z2​则将两层的变换展开后得到yx1−x2x3x4yx_1-x_2x_3x_4yx1​−x2​x3​x4​。也就是说无论中间累积了多少层线性变换原始输入和最终输出之间依然是线性关系。 Sigmoid是早期神经网络模型中常见的非线性变换函数绘制出Sigmoid的函数曲线。 卷积神经网络 虽然使用经典的全连接神经网络可以提升一定的准确率但其输入数据的形式导致丢失了图像像素间的空间信息这影响了网络对图像内容的理解。对于计算机视觉问题效果最好的模型仍然是卷积神经网络。卷积神经网络针对视觉问题的特点进行了网络结构优化可以直接处理原始形式的图像数据保留像素间的空间信息因此更适合处理视觉问题。 卷积神经网络由多个卷积层和池化层组成如 图4 所示。卷积层负责对输入进行扫描以生成更抽象的特征表示池化层对这些特征表示进行过滤保留最关键的特征信息。 图4在处理计算机视觉任务中大放异彩的卷积神经网络说明 本节只简单介绍用卷积神经网络实现手写数字识别任务以及它带来的效果提升。读者可以将卷积神经网络先简单的理解成是一种比经典的全连接神经网络更强大的模型即可更详细的原理和实现在接下来的《计算机视觉-卷积神经网络基础》中讲述。 两层卷积和池化的神经网络实现如下所示。 # 定义 SimpleNet 网络结构 import paddle from paddle.nn import Conv2D, MaxPool2D, Linear import paddle.nn.functional as F # 多层卷积神经网络实现 class MNIST(paddle.nn.Layer):def __init__(self):super(MNIST, self).__init__()# 定义卷积层输出特征通道out_channels设置为20卷积核的大小kernel_size为5卷积步长stride1padding2self.conv1 Conv2D(in_channels1, out_channels20, kernel_size5, stride1, padding2)# 定义池化层池化核的大小kernel_size为2池化步长为2self.max_pool1 MaxPool2D(kernel_size2, stride2)# 定义卷积层输出特征通道out_channels设置为20卷积核的大小kernel_size为5卷积步长stride1padding2self.conv2 Conv2D(in_channels20, out_channels20, kernel_size5, stride1, padding2)# 定义池化层池化核的大小kernel_size为2池化步长为2self.max_pool2 MaxPool2D(kernel_size2, stride2)# 定义一层全连接层输出维度是1self.fc Linear(in_features980, out_features1)# 定义网络前向计算过程卷积后紧接着使用池化层最后使用全连接层计算最终输出# 卷积层激活函数使用Relu全连接层不使用激活函数def forward(self, inputs):x self.conv1(inputs)x F.relu(x)x self.max_pool1(x)x self.conv2(x)x F.relu(x)x self.max_pool2(x)x paddle.reshape(x, [x.shape[0], -1])x self.fc(x)return x使用MNIST数据集训练定义好的卷积神经网络如下所示。 说明 以上数据加载函数load_data返回一个数据迭代器train_loader该train_loader在每次迭代时的数据shape为[batch_size, 784]因此需要将该数据形式reshape为图像数据形式[batch_size, 1, 28, 28]其中第二维代表图像的通道数在MNIST数据集中每张图片的通道数为1传统RGB图片通道数为3。 #网络结构部分之后的代码保持不变 def train(model):model.train()#调用加载数据的函数获得MNIST训练数据集train_loader load_data(train)# 使用SGD优化器learning_rate设置为0.01opt paddle.optimizer.SGD(learning_rate0.01, parametersmodel.parameters())# 训练5轮EPOCH_NUM 10# MNIST图像高和宽IMG_ROWS, IMG_COLS 28, 28loss_list []for epoch_id in range(EPOCH_NUM):for batch_id, data in enumerate(train_loader()):#准备数据images, labels dataimages paddle.to_tensor(images)labels paddle.to_tensor(labels)#前向计算的过程predicts model(images)#计算损失取一个批次样本损失的平均值loss F.square_error_cost(predicts, labels)avg_loss paddle.mean(loss)#每训练200批次的数据打印下当前Loss的情况if batch_id % 200 0:loss avg_loss.numpy()[0]loss_list.append(loss)print(epoch: {}, batch: {}, loss is: {}.format(epoch_id, batch_id, loss))#后向传播更新参数的过程avg_loss.backward()# 最小化loss,更新参数opt.step()# 清除梯度opt.clear_grad()#保存模型参数paddle.save(model.state_dict(), mnist.pdparams)return loss_listmodel MNIST() loss_list train(model)
http://www.w-s-a.com/news/180884/

相关文章:

  • 如何使用阿里云建设网站网站两边广告
  • 互联网信息服务小红书seo是什么意思
  • 深圳市南山区建设局网站公司简介网页
  • 免费小程序制作软件爱站网站seo查询工具
  • 承接电商网站建设缔烨建设公司网站
  • 网站运营介绍十大国外室内设计网站
  • 网站建设完毕后怎么加后台电影购买网站怎么设计
  • 空间ip地址访问网站音乐分享 wordpress
  • 做网站一单能挣多少wordpress主题文件夹在哪
  • 视频社区app源码台州优化网站
  • 保定高端网站建设做微商好还是开网站好
  • 有什么方法在淘宝发布网站建设设计wordpress评分
  • 自己做的网站怎么爬数据库酷播wordpress
  • 广州哪家做网站还可以黑龙江省建设厅网站的电话
  • 青海省高等级公路建设管局网站国内做led灯网站有
  • 做网站成功建设银行网站网址
  • 自动生成网站上海十大活动策划公司
  • 企业网站建设源码HTML论述市场营销对网站设计的影响
  • 网站设计常见问题建设工程网上质检备案网站
  • 网站怎样优化文章关键词建设网站需要钱吗
  • 加强网站建设和管理的通知重庆网站推广产品
  • 网站建设术语解释百度发布信息的免费平台
  • 情公司做的网站seo与网站优化 pdf
  • 做一个购物网站多少钱江阴市住房和城乡建设局网站
  • 网站建设都包括哪些ps怎么做网站首页和超链接
  • 怎样低成本做网站推广编辑网站教程
  • 邯郸网站建设信息网站开发报价人天
  • 王店镇建设中心小学网站酷玛网站建设
  • 网站需求方案wordpress博客主题推荐
  • 网站安全证书过期怎么办那个视频网站最好最全网址