当前位置: 首页 > news >正文

wordpress post是什么佛山seo培训

wordpress post是什么,佛山seo培训,蝉知使用WordPress模板,新网做网站流程写在前面 从本次开始#xff0c;接触一些上层应用。 本次通过经典的模型#xff0c;开始本次任务。这里开始学习resnet50网络模型#xff0c;应该也会有resnet18#xff0c;估计18的模型速度会更快一些。 resnet 通过对论文的结论进行展示#xff0c;说明了模型的功能接触一些上层应用。 本次通过经典的模型开始本次任务。这里开始学习resnet50网络模型应该也会有resnet18估计18的模型速度会更快一些。 resnet 通过对论文的结论进行展示说明了模型的功能解决了卷积网络层数加大后模型的退化问题。20层和56层相比层数越大模型效果越差因此resnet主要解决这种问题。hekaiming是真的强呀。 基本流程 整理模型数据构建模型网络核心逻辑ResidualBlockBase/ResidualBlock创建模型一层 构建网络的代码 from typing import Type, Union, List, Optional import mindspore.nn as nn from mindspore.common.initializer import Normal# 初始化卷积层与BatchNorm的参数 weight_init Normal(mean0, sigma0.02) gamma_init Normal(mean1, sigma0.02)class ResidualBlockBase(nn.Cell):expansion: int 1 # 最后一个卷积核数量与第一个卷积核数量相等def __init__(self, in_channel: int, out_channel: int,stride: int 1, norm: Optional[nn.Cell] None,down_sample: Optional[nn.Cell] None) - None:super(ResidualBlockBase, self).__init__()if not norm:self.norm nn.BatchNorm2d(out_channel)else:self.norm normself.conv1 nn.Conv2d(in_channel, out_channel,kernel_size3, stridestride,weight_initweight_init)self.conv2 nn.Conv2d(in_channel, out_channel,kernel_size3, weight_initweight_init)self.relu nn.ReLU()self.down_sample down_sampledef construct(self, x):ResidualBlockBase construct.identity x # shortcuts分支out self.conv1(x) # 主分支第一层3*3卷积层out self.norm(out)out self.relu(out)out self.conv2(out) # 主分支第二层3*3卷积层out self.norm(out)if self.down_sample is not None:identity self.down_sample(x)out identity # 输出为主分支与shortcuts之和out self.relu(out)return out创建模型一层 def make_layer(last_out_channel, block: Type[Union[ResidualBlockBase, ResidualBlock]],channel: int, block_nums: int, stride: int 1):down_sample None # shortcuts分支if stride ! 1 or last_out_channel ! channel * block.expansion:down_sample nn.SequentialCell([nn.Conv2d(last_out_channel, channel * block.expansion,kernel_size1, stridestride, weight_initweight_init),nn.BatchNorm2d(channel * block.expansion, gamma_initgamma_init)])layers []layers.append(block(last_out_channel, channel, stridestride, down_sampledown_sample))in_channel channel * block.expansion# 堆叠残差网络for _ in range(1, block_nums):layers.append(block(in_channel, channel))return nn.SequentialCell(layers)创建模型 搭建一个4层的网络。 from mindspore import load_checkpoint, load_param_into_netclass ResNet(nn.Cell):def __init__(self, block: Type[Union[ResidualBlockBase, ResidualBlock]],layer_nums: List[int], num_classes: int, input_channel: int) - None:super(ResNet, self).__init__()self.relu nn.ReLU()# 第一个卷积层输入channel为3彩色图像输出channel为64self.conv1 nn.Conv2d(3, 64, kernel_size7, stride2, weight_initweight_init)self.norm nn.BatchNorm2d(64)# 最大池化层缩小图片的尺寸self.max_pool nn.MaxPool2d(kernel_size3, stride2, pad_modesame)# 各个残差网络结构块定义self.layer1 make_layer(64, block, 64, layer_nums[0])self.layer2 make_layer(64 * block.expansion, block, 128, layer_nums[1], stride2)self.layer3 make_layer(128 * block.expansion, block, 256, layer_nums[2], stride2)self.layer4 make_layer(256 * block.expansion, block, 512, layer_nums[3], stride2)# 平均池化层self.avg_pool nn.AvgPool2d()# flattern层self.flatten nn.Flatten()# 全连接层self.fc nn.Dense(in_channelsinput_channel, out_channelsnum_classes)def construct(self, x):x self.conv1(x)x self.norm(x)x self.relu(x)x self.max_pool(x)x self.layer1(x)x self.layer2(x)x self.layer3(x)x self.layer4(x)x self.avg_pool(x)x self.flatten(x)x self.fc(x)return x 接下来连接数据和模型网络开始构建容易使用的网络。在这里设置了模型残差的方法和每个block。 def _resnet(model_url: str, block: Type[Union[ResidualBlockBase, ResidualBlock]],layers: List[int], num_classes: int, pretrained: bool, pretrained_ckpt: str,input_channel: int):model ResNet(block, layers, num_classes, input_channel)if pretrained:# 加载预训练模型download(urlmodel_url, pathpretrained_ckpt, replaceTrue)param_dict load_checkpoint(pretrained_ckpt)load_param_into_net(model, param_dict)return modeldef resnet50(num_classes: int 1000, pretrained: bool False):ResNet50模型resnet50_url https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/notebook/models/application/resnet50_224_new.ckptresnet50_ckpt ./LoadPretrainedModel/resnet50_224_new.ckptreturn _resnet(resnet50_url, ResidualBlock, [3, 4, 6, 3], num_classes,pretrained, resnet50_ckpt, 2048) 模型训练和评估 并没有完全训练使用了预训练的方法下载了预训练的模型。 # 定义ResNet50网络 network resnet50(pretrainedTrue)# 全连接层输入层的大小 in_channel network.fc.in_channels fc nn.Dense(in_channelsin_channel, out_channels10) # 重置全连接层 network.fc fc有了模型网络接下来需要进行模型训练。训练的过程要设置学习率、优化器和损失函数。 # 设置学习率 num_epochs 1 lr nn.cosine_decay_lr(min_lr0.00001, max_lr0.001, total_stepstep_size_train * num_epochs,step_per_epochstep_size_train, decay_epochnum_epochs) # 定义优化器和损失函数 opt nn.Momentum(paramsnetwork.trainable_params(), learning_ratelr, momentum0.9) loss_fn nn.SoftmaxCrossEntropyWithLogits(sparseTrue, reductionmean)def forward_fn(inputs, targets):logits network(inputs)loss loss_fn(logits, targets)return lossgrad_fn ms.value_and_grad(forward_fn, None, opt.parameters)def train_step(inputs, targets):loss, grads grad_fn(inputs, targets)opt(grads)return loss之后进行多个epoch的迭代实现模型训练的目标。 import mindspore.ops as opsdef train(data_loader, epoch):模型训练losses []network.set_train(True)for i, (images, labels) in enumerate(data_loader):loss train_step(images, labels)if i % 100 0 or i step_size_train - 1:print(Epoch: [%3d/%3d], Steps: [%3d/%3d], Train Loss: [%5.3f] %(epoch 1, num_epochs, i 1, step_size_train, loss))losses.append(loss)return sum(losses) / len(losses)def evaluate(data_loader):模型验证network.set_train(False)correct_num 0.0 # 预测正确个数total_num 0.0 # 预测总数for images, labels in data_loader:logits network(images)pred logits.argmax(axis1) # 预测结果correct ops.equal(pred, labels).reshape((-1, ))correct_num correct.sum().asnumpy()total_num correct.shape[0]acc correct_num / total_num # 准确率return acc# 开始循环训练 print(Start Training Loop ...)for epoch in range(num_epochs):curr_loss train(data_loader_train, epoch)curr_acc evaluate(data_loader_val)print(- * 50)print(Epoch: [%3d/%3d], Average Train Loss: [%5.3f], Accuracy: [%5.3f] % (epoch1, num_epochs, curr_loss, curr_acc))print(- * 50)# 保存当前预测准确率最高的模型if curr_acc best_acc:best_acc curr_accms.save_checkpoint(network, best_ckpt_path)print( * 80) print(fEnd of validation the best Accuracy is: {best_acc: 5.3f}, fsave the best ckpt file in {best_ckpt_path}, flushTrue) 进行多轮训练之后达到训练的目的模型开始进行收敛并且能够获取到最终的结果。 最后进行评估这个并不复杂。 打开
http://www.w-s-a.com/news/167531/

相关文章:

  • 网站开发我们都能解决怎样做网站吸引客户
  • 网站首页图片切换代码wordpress minfy
  • 什么程序做网站收录好企业搭建网站的必要性
  • 建设网站主题建站必须要域名吗
  • 网站建设海报设计购物平台网站建设框架
  • 湖北在线网站建设建一个网站迈年
  • 上班自己花钱做的网站网站首页的动态怎么做
  • 台州网站建设哪家便宜沧州最新消息今天
  • 建设网站 请示 报告wordpress会员制
  • 青岛建网站人做网站怎么赚钱广告
  • 网站建设哪家好公司跨境电商展会2023
  • 设计大神云集的网站是南通市 网站设计
  • 心理咨询网站模板企业画册封面设计
  • 做网站 南京网站建设的重难点分析
  • 深圳做网站980移动网站开发语言
  • 网站评论怎么做seo关键词优化方法
  • 市级部门网站建设自评报告网站优化文章怎么做
  • 可不可以异地建设网站学做网站培训班要多少钱
  • 茌平网站建设公司免费的云服务器有哪些
  • 手机网站单页面铜陵网站制作公司
  • 网站logo怎么做才清晰千库网官网首页登录
  • 山西省建设银行网站首页长沙网站建设制作
  • 襄阳市做网站 优帮云百度搜索次数统计
  • 自己做视频直播网站盐城做网站多少钱
  • 买个网站服务器多少钱重庆做的好的房产网站
  • 深圳定制建站网站建设推广关键词怎么设置
  • 宝山网站建设 网站外包修改wordpress版权
  • 建立网站的基本步骤新网站多久会被百度收录
  • 软件设计开发流程图廊坊关键词seo排名方案
  • 南山住房和建设局网站网站被k 多久恢复