当前位置: 首页 > news >正文

网站维护的要求网页视频怎么下载到本地视频电脑

网站维护的要求,网页视频怎么下载到本地视频电脑,关键帧,地区电商网站系统一、背景 AlexNet是在2012年由Alex Krizhevsky等人提出的#xff0c;该网络在2012年的ImageNet大赛上夺得了冠军#xff0c;并且错误率比第二名高了很多。Alexnet共有8层结构#xff0c;前5层为卷积层#xff0c;后三层为全连接层。 论文地址#xff1a;ImageNet Classif… 一、背景 AlexNet是在2012年由Alex Krizhevsky等人提出的该网络在2012年的ImageNet大赛上夺得了冠军并且错误率比第二名高了很多。Alexnet共有8层结构前5层为卷积层后三层为全连接层。 论文地址ImageNet Classification with Deep Convolutional Neural Networks 二、创新点 1、使用大型深度卷积神经网络 作者使用了一个大型深度卷积神经网络在ImageNet数据集上取得了非常好的结果。说明大型网络对模型的效果影响比较大这也是为什么现在大家都在做大模型的原因。 2、ReLU激活函数 该论文推广了使用整流线型单元ReLC)激活函数这有助于训练更深的网络而不会出现梯度消失的问题。 3、局部响应一体化LRN)的使用 4、数据增强 为了减少过拟合作者采用数据增强的方法。通过对训练图像进行平移、翻转等操作来扩充训练集从而增强了训练样本的多样性。 5、Dropout技术 为了进一步减少过拟合作者采用了dropout技术。在训练过程中以一定概率将隐藏层神经元的输出置为零。 可以看出这篇文章发表在2012年已经是很久以前但是这篇文章用到的Relu函数Dropout技术到目前还是广泛使用的。 三、AlexNet使用PyTorch框架实现 from torch import nnclass AlexNet(nn.Module):def __init__(self,class_num):super(AlexNet,self).__init__()self.class_num class_num# input(N,3,224,224)self.net nn.Sequential(nn.Conv2d(in_channels3,out_channels96,kernel_size11,stride4,padding_modezeros),nn.ReLU(inplaceTrue),nn.LocalResponseNorm(size5,alpha1e-4,beta0.75,k2),nn.MaxPool2d(kernel_size3,stride2),nn.Conv2d(in_channels96,out_channels256,kernel_size5,stride1,padding_modezeros),nn.ReLU(inplaceTrue),nn.LocalResponseNorm(size5,alpha1e-4,beta0.75,k2),nn.MaxPool2d(kernel_size3,stride2),nn.Conv2d(in_channels256, out_channels384, kernel_size3, stride1, padding_modezeros),nn.ReLU(inplaceTrue),nn.Conv2d(in_channels384, out_channels384, kernel_size3, stride1, padding_modezeros),nn.ReLU(inplaceTrue),nn.Conv2d(in_channels384, out_channels384, kernel_size3, stride1, padding_modezeros),nn.ReLU(inplaceTrue),nn.MaxPool2d(kernel_size1,stride2))self.fully_connectednn.Sequential(nn.Linear(in_features256*6*6,out_features4096),nn.ReLU(),nn.Dropout(p0.5),nn.Linear(in_features4096,out_features4096),nn.ReLU(),nn.Dropout(p0.5),nn.Linear(in_features4096,out_featuresself.class_num))self.init_bias()def init_bias(self):for layer in self.net:if isinstance(layer,nn.Conv2d):nn.init.normal_(layer.weight,mean0,std0.01)nn.init.constant_(layer.bias,0)nn.init.constant_(self.net[4].bias,1)nn.init.constant_(self.net[10].bias,1)nn.init.constant_(self.net[12].bias,1)nn.init.constant_(self.fully_connected[0].bias,1)nn.init.constant_(self.fully_connected[3].bias,1)def forward(self,x):x self.net(x)x x.view(-1,256*6*6)x self.fully_connected(x)return x四、AlexNet使用keras框架实现 from keras.models import Sequential from keras.layers import Conv2D, AveragePooling2D, Flatten, Dense,Activation,MaxPool2D, BatchNormalization, Dropout from keras.regularizers import l2 # 实例化一个空的顺序模型 model Sequential(nameAlexnet) # 1st layer (conv pool batchnorm) model.add(Conv2D(filters 96, kernel_size (11,11), strides(4,4), paddingvalid, kernel_regularizerl2(0.0005), input_shape (227,227,3))) model.add(Activation(relu)) #---- activation function can be added on its own layer or within the Conv2D function model.add(MaxPool2D(pool_size(3,3), strides (2,2), paddingvalid)) model.add(BatchNormalization())# 2nd layer (conv pool batchnorm) model.add(Conv2D(filters256, kernel_size(5,5), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(MaxPool2D(pool_size(3,3), strides(2,2), paddingvalid)) model.add(BatchNormalization())# layer 3 (conv batchnorm) --- note that the authors did not add a POOL layer here model.add(Conv2D(filters384, kernel_size(3,3), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(BatchNormalization())# layer 4 (conv batchnorm) --- similar to layer 3 model.add(Conv2D(filters384, kernel_size(3,3), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(BatchNormalization())# layer 5 (conv batchnorm) model.add(Conv2D(filters256, kernel_size(3,3), strides(1,1), paddingsame, kernel_regularizerl2(0.0005))) model.add(Activation(relu)) model.add(BatchNormalization()) model.add(MaxPool2D(pool_size(3,3), strides(2,2), paddingvalid))# 平铺 CNN 输出为其提供完全连接的层 model.add(Flatten())# layer 6 (Dense layer dropout) model.add(Dense(units 4096, activation relu)) model.add(Dropout(0.5))# layer 7 (Dense layers) model.add(Dense(units 4096, activation relu)) model.add(Dropout(0.5))# layer 8 (softmax output layer) model.add(Dense(units 1000, activation softmax))# 打印模型摘要 model.summary()使用 plot_model 可视化网络 安装 conda install graphviz conda install pydotplus from keras.utils import plot_modelplot_model(model, to_fileimages/resnet50.png, show_shapesTrue)
http://www.w-s-a.com/news/659435/

相关文章:

  • 怎么做五个页面网站网络推广如何收费
  • 上虞宇普电器网站建设江西建筑人才网
  • 在吗做网站商城一个网站需要服务器吗
  • 先做网站再备案吗中山微网站建设报价
  • 树莓派可以做网站的服务器吗网站建设与设计ppt
  • 网站访问速度分析网站怎么做让PC和手机自动识别
  • 网站建设要考西宁网站建设多少钱
  • 网站开发公司东莞网站推广计划书具体包含哪些基本内容?
  • 素材天下网站惠州网站建设行业
  • 网站做a视频在线观看网站天津建站
  • 自己做的网站怎么链接火车头采集一个网站可以做几级链接
  • 济南网站制作哪家专业做网站怎样投放广告
  • 辽宁网站推广短视频运营培训学费多少
  • 拼多多网站怎么做翻译 插件 wordpress
  • 做网站运营的职业生涯规划wordpress分类显示图片
  • 网站建设与制作总结沈阳百度广告
  • 网站管理系统 手机会员制网站搭建wordpress
  • 做物品租赁网站清新wordpress主题
  • 优秀专题网站家居企业网站建设市场
  • 中山市有什么网站推广wordpress轻应用主机
  • 洗头竖鞋带名片改良授权做网站不贵整个世界
  • 设计电子商务网站建设方案微信如何开发自己的小程序
  • 建设网站公司哪里好相关的热搜问题解决方案做网站要看什么书
  • 网站建设重要性黄岐建网站
  • 做网站电销《电子商务网站建设》精品课
  • 地方商城网站海外网站推广方法
  • 乐山 网站建设安阳给商家做网站推广
  • 网站空间一般多大邢台网站建设有哪些
  • h5网站开发工具有哪些wordpress清空post表
  • 公司开网站干嘛怎么制作一个免费的网站模板