当前位置: 首页 > news >正文

关于网站建设外文文献系部网站建设

关于网站建设外文文献,系部网站建设,大连做网站的公司,开发前端和后端的区别针对图像的经典卷积网络结构进化史及可视化 P176--LeNet-5【1988】模型结构说明模型结构代码模型结构可视化 P177--AlexNet【2012】模型结构及创新性说明模型结构代码模型结构可视化 P178--VGGNet【2014】VGG19模型结构及创新性说明VGG19模型结构代码VGG19模型结构可视化 P179-… 针对图像的经典卷积网络结构进化史及可视化 P176--LeNet-5【1988】模型结构说明模型结构代码模型结构可视化 P177--AlexNet【2012】模型结构及创新性说明模型结构代码模型结构可视化 P178--VGGNet【2014】VGG19模型结构及创新性说明VGG19模型结构代码VGG19模型结构可视化 P179--ResNet【2015】模型结构及创新性说明ResNet-50、101、152模型结构代码ResNet-50代码ResNet-101代码ResNet-152代码 ResNet系列模型结构可视化 P180--DenseNet【2017】模型结构及创新性DenseNet-121、169、201模型结构代码DenseNet-121代码DenseNet-169代码DenseNet-201代码 DenseNet系列模型结构可视化 运行系统macOS Sequoia 15.0 Python编译器PyCharm 2024.1.4 (Community Edition) Python版本3.12 TensorFlow版本2.17.0 Pytorch版本2.4.1 往期链接 1-56-1011-2021-3031-4041-50 51-60函数61-70类71-80编程范式及设计模式 81-90Python编码规范91-100Python自带常用模块-1 101-105Python自带模块-2106-110Python自带模块-3 111-115Python常用第三方包-频繁使用116-120Python常用第三方包-深度学习 121-125Python常用第三方包-爬取数据126-130Python常用第三方包-为了乐趣 131-135Python常用第三方包-拓展工具1136-140Python常用第三方包-拓展工具2 Python项目实战 141-145146-150151-155156-160161-165166-170171-175 P176–LeNet-5【1988】 LeNet-5 是一种经典的卷积神经网络CNN架构由 Yann LeCun 等人在 1998 年提出。它最初是为手写数字识别任务如 MNIST 数据集设计的但其架构已成为许多后续深度学习模型的基础。 模型结构说明 LeNet-5 由以下几个主要层组成 输入层28x28 像素的灰度图像。卷积层 1 (C1)使用 6 个 5x5 的卷积核步长为 1输出 6 个 24x24 的特征图。池化层 1 (S2)使用 2x2 的平均池化步长为 2输出 6 个 12x12 的特征图。卷积层 2 (C3)使用 16 个 5x5 的卷积核输出 16 个 8x8 的特征图。池化层 2 (S4)使用 2x2 的平均池化步长为 2输出 16 个 4x4 的特征图。全连接层 1 (C5)将 16 个 4x4 的特征图展平为一个 400 维的向量并与 120 个神经元全连接。全连接层 2 (F6)与 84 个神经元全连接。输出层使用 Softmax 激活函数输出 10 个类别0-9 的手写数字。 模型结构代码 import matplotlib.pyplot as plt from keras.utils import plot_model from tensorflow.keras import layers, models# 定义 LeNet-5 模型 def create_lenet5():model models.Sequential()model.add(layers.Conv2D(6, (5, 5), activationtanh, input_shape(28, 28, 1)))model.add(layers.AveragePooling2D(pool_size(2, 2))) # 添加 pool_size 参数model.add(layers.Conv2D(16, (5, 5), activationtanh))model.add(layers.AveragePooling2D(pool_size(2, 2))) # 添加 pool_size 参数model.add(layers.Conv2D(120, (5, 5), activationtanh))model.add(layers.Flatten())model.add(layers.Dense(84, activationtanh))model.add(layers.Dense(10, activationsoftmax))return model# 创建模型 model create_lenet5()# 保存模型结构 plot_model(model, to_filelenet5_model.png, show_shapesTrue, show_layer_namesTrue)# 显示可视化结果 img plt.imread(lenet5_model.png) plt.figure(figsize(10, 10)) plt.title(lenet5) plt.imshow(img) plt.axis(off) plt.show()模型结构可视化 P177–AlexNet【2012】 AlexNet 是一种深度卷积神经网络CNN由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 在 2012 年提出。它在 ImageNet 竞赛中取得了显著的成功推动了深度学习在计算机视觉领域的广泛应用。 模型结构及创新性说明 AlexNet 的架构如下所示 输入层224x224 像素的 RGB 图像。卷积层 1 (Conv1)使用 96 个 11x11 的卷积核步长为 4。激活层 1 (ReLU)应用 ReLU 激活函数。池化层 1 (Max Pooling)使用 3x3 的最大池化步长为 2。卷积层 2 (Conv2)使用 256 个 5x5 的卷积核。激活层 2 (ReLU)应用 ReLU 激活函数。池化层 2 (Max Pooling)使用 3x3 的最大池化步长为 2。卷积层 3 (Conv3)使用 384 个 3x3 的卷积核。激活层 3 (ReLU)应用 ReLU 激活函数。卷积层 4 (Conv4)使用 384 个 3x3 的卷积核。激活层 4 (ReLU)应用 ReLU 激活函数。卷积层 5 (Conv5)使用 256 个 3x3 的卷积核。激活层 5 (ReLU)应用 ReLU 激活函数。池化层 3 (Max Pooling)使用 3x3 的最大池化步长为 2。全连接层 1 (FC1)与 4096 个神经元全连接。激活层 6 (ReLU)应用 ReLU 激活函数。Dropout 层 1以 50% 的概率随机丢弃神经元。全连接层 2 (FC2)与 4096 个神经元全连接。激活层 7 (ReLU)应用 ReLU 激活函数。Dropout 层 2以 50% 的概率随机丢弃神经元。全连接层 3 (FC3)与 1000 个神经元全连接对应 1000 个类别。输出层使用 Softmax 激活函数。 创新性 AlexNet 模型的创新性体现在多个方面以下是其关键特点 深层网络结构 深度卷积网络相比之前的浅层网络AlexNet 采用了更深的结构包含多个卷积层和全连接层能够学习更复杂的特征。激活函数的创新 ReLU 激活函数引入了 ReLU修正线性单元作为激活函数解决了传统激活函数如 Sigmoid 和 Tanh在深层网络中造成的梯度消失问题加速了训练过程。数据增强和正则化 数据增强通过随机裁剪、翻转和颜色变换等方法扩充训练数据增强模型的泛化能力。Dropout的加入 在全连接层中使用 Dropout 技术随机丢弃一部分神经元减少过拟合提高模型的鲁棒性。 模型结构代码 import matplotlib.pyplot as plt from keras.utils import plot_model from tensorflow.keras import layers, models# macos系统显示中文 plt.rcParams[font.sans-serif] [Arial Unicode MS]# 定义 alexnet 模型 def create_alexnet(input_shape(224, 224, 3), num_classes1000):model models.Sequential()# 卷积层1 激活函数ReLU 池化层1model.add(layers.Conv2D(96, kernel_size(11, 11), strides(4, 4), activationrelu, input_shapeinput_shape))model.add(layers.MaxPooling2D(pool_size(3, 3), strides(2, 2)))# 卷积层2 激活函数ReLU 最大池化层2model.add(layers.Conv2D(256, kernel_size(5, 5), activationrelu))model.add(layers.MaxPooling2D(pool_size(3, 3), strides(2, 2)))# 卷积层3 激活函数ReLUmodel.add(layers.Conv2D(384, kernel_size(3, 3), activationrelu))# 卷积层4 激活函数ReLUmodel.add(layers.Conv2D(384, kernel_size(3, 3), activationrelu))# 卷积层5 激活函数ReLU 最大池化层5model.add(layers.Conv2D(256, kernel_size(3, 3), activationrelu))model.add(layers.MaxPooling2D(pool_size(3, 3), strides(2, 2)))# 展平层为了后面的全连接层model.add(layers.Flatten())# 全连接层 激活函数ReLUDropout概率0.5model.add(layers.Dense(4096, activationrelu))model.add(layers.Dropout(0.5))# 全连接层 Dropout概率0.5model.add(layers.Dense(4096, activationrelu))model.add(layers.Dropout(0.5))# 全连接层激活函数Softmaxmodel.add(layers.Dense(num_classes, activationsoftmax))return model# 创建 AlexNet 模型 model create_alexnet() model.summary()# 保存模型结构 plot_model(model, to_fileAlexNet_model.png, show_shapesTrue, show_layer_namesTrue)# 显示可视化结果 img plt.imread(AlexNet_model.png) plt.figure(figsize(10, 10)) plt.title(AlexNet 结构可视化) plt.imshow(img) plt.axis(off) plt.show()模型结构可视化 P178–VGGNet【2014】 VGGNet 是由牛津大学视觉几何组Visual Geometry Group在 2014 年提出的卷积神经网络CNN架构。VGGNet 在 ImageNet 大规模视觉识别挑战赛中取得了优异的成绩并以其简单而有效的设计理念而闻名。VGGNet 有多个变体最常用的包括 VGG16 和 VGG19数字表示网络中的层数。本文以VGG19为例 VGG19模型结构及创新性说明 输入层输入图像尺寸224x224 像素RGB 图像。Conv Block 1 Conv1-1: 3x3卷积64个滤波器Conv1-2: 3x3卷积64个滤波器Max Pooling: 2x2 Conv Block 2 Conv2-1: 3x3卷积128个滤波器Conv2-2: 3x3卷积128个滤波器Max Pooling: 2x2 Conv Block 3 Conv3-1: 3x3卷积256个滤波器Conv3-2: 3x3卷积256个滤波器Conv3-3: 3x3卷积256个滤波器Max Pooling: 2x2 Conv Block 4 Conv4-1: 3x3卷积512个滤波器Conv4-2: 3x3卷积512个滤波器Conv4-3: 3x3卷积512个滤波器Max Pooling: 2x2 Conv Block 5 Conv5-1: 3x3卷积512个滤波器Conv5-2: 3x3卷积512个滤波器Conv5-3: 3x3卷积512个滤波器Max Pooling: 2x2 展开层全连接层 FC1: 4096个神经元ReLU 激活FC2: 4096个神经元ReLU 激活FC3: 1000个神经元对应 1000 个类别Softmax 激活 创新性 VGGNet结构的创新性 简单而深层的结构 VGGNet 使用简单的 3x3 卷积和 2x2 最大池化构建深层网络证明了通过增加网络深度可以提高模型的性能。一致的卷积核大小 所有卷积层均采用相同大小的卷积核3x3使网络结构更加简洁且易于理解。深度网络的有效性 VGGNet 通过增加网络深度16 或 19 层来提高分类性能展示了深度学习在复杂图像任务中的优势。可解释性 尽管模型较深但其结构相对简单易于可视化和理解。 VGG19模型结构代码 import matplotlib.pyplot as plt from keras.utils import plot_model from tensorflow.keras import layers, models# macos系统显示中文 plt.rcParams[font.sans-serif] [Arial Unicode MS]def create_vgg19(input_shape(224, 224, 3), num_classes1000):model models.Sequential()# Conv Block 1model.add(layers.Conv2D(64, (3, 3), paddingsame, activationrelu, input_shapeinput_shape))model.add(layers.Conv2D(64, (3, 3), paddingsame, activationrelu))model.add(layers.MaxPooling2D((2, 2), strides(2, 2)))# Conv Block 2model.add(layers.Conv2D(128, (3, 3), paddingsame, activationrelu))model.add(layers.Conv2D(128, (3, 3), paddingsame, activationrelu))model.add(layers.MaxPooling2D((2, 2), strides(2, 2)))# Conv Block 3model.add(layers.Conv2D(256, (3, 3), paddingsame, activationrelu))model.add(layers.Conv2D(256, (3, 3), paddingsame, activationrelu))model.add(layers.Conv2D(256, (3, 3), paddingsame, activationrelu))model.add(layers.MaxPooling2D((2, 2), strides(2, 2)))# Conv Block 4model.add(layers.Conv2D(512, (3, 3), paddingsame, activationrelu))model.add(layers.Conv2D(512, (3, 3), paddingsame, activationrelu))model.add(layers.Conv2D(512, (3, 3), paddingsame, activationrelu))model.add(layers.MaxPooling2D((2, 2), strides(2, 2)))# Conv Block 5model.add(layers.Conv2D(512, (3, 3), paddingsame, activationrelu))model.add(layers.Conv2D(512, (3, 3), paddingsame, activationrelu))model.add(layers.Conv2D(512, (3, 3), paddingsame, activationrelu))model.add(layers.MaxPooling2D((2, 2), strides(2, 2)))# Flattening Layermodel.add(layers.Flatten())# Fully Connected Layersmodel.add(layers.Dense(4096, activationrelu))model.add(layers.Dense(4096, activationrelu))model.add(layers.Dense(num_classes, activationsoftmax))return model# 创建 VGG19 模型 vgg19_model create_vgg19() vgg19_model.summary()plot_model(vgg19_model, to_filevgg19_model.png, show_shapesTrue, show_layer_namesTrue, dpi500)# 显示可视化结果 img plt.imread(vgg19_model.png) plt.figure(figsize(10, 10)) plt.title(VGG19 结构可视化) plt.imshow(img) plt.axis(off) plt.show()VGG19模型结构可视化 P179–ResNet【2015】 模型结构及创新性说明 ResNetResidual Network是由 Kaiming He 等人在 2015 年提出的一种深度卷积神经网络。其主要创新在于引入了残差学习Residual Learning框架解决了深层网络训练中的梯度消失和退化问题。 模型结构 ResNet 的核心思想是通过引入跳跃连接skip connections来构建残差块Residual Block。以下是 ResNet 的基本结构 输入层 输入图像尺寸通常为 224x224 像素的 RGB 图像。初始卷积层 使用 7x7 的卷积核64 个滤波器步长为 2后跟最大池化层。残差块 由多个残差块组成每个残差块包含两个或三个卷积层。每个残差块的输出通过跳跃连接与输入相加形成残差学习。残差块可以分为以下几种类型 Basic Block适用于较小的特征图。Bottleneck Block适用于较大的特征图使用 1x1 卷积减少维度后接 3x3 卷积和再用 1x1 卷积恢复维度。 全局平均池化层 在所有残差块之后使用全局平均池化层减小特征图的尺寸。全连接层 最后一层使用 Softmax 激活函数输出类别概率。 ResNet 的创新性 残差学习 引入残差块通过跳跃连接直接将输入添加到输出允许网络学习残差而非直接学习目标函数缓解了深层网络训练中的梯度消失问题。可以实现极深的网络结构 ResNet 允许构建非常深的网络例如 ResNet-50、ResNet-101、ResNet-152在 2015 年 ImageNet 竞赛中表现优异。简单的构建模块 残差块的设计使得构建深层网络变得简单极大地推动了深度学习领域的发展。普适性 ResNet 的设计思想被广泛应用于其他任务和模型如目标检测、语义分割等。 ResNet-50、101、152模型结构代码 import matplotlib.pyplot as plt from keras.utils import plot_model from tensorflow.keras import layers, models# macos系统显示中文 plt.rcParams[font.sans-serif] [Arial Unicode MS]def identity_block(x, filters, kernel_size3):x_skip xf1, f2, f3 filtersx layers.Conv2D(f1, (1, 1), strides(1, 1), paddingvalid)(x)x layers.BatchNormalization()(x)x layers.Activation(relu)(x)x layers.Conv2D(f2, kernel_size, strides(1, 1), paddingsame)(x)x layers.BatchNormalization()(x)x layers.Activation(relu)(x)x layers.Conv2D(f3, (1, 1), strides(1, 1), paddingvalid)(x)x layers.BatchNormalization()(x)x layers.Add()([x, x_skip])x layers.Activation(relu)(x)return xdef convolutional_block(x, filters, kernel_size3, stride2):x_skip xf1, f2, f3 filtersx layers.Conv2D(f1, (1, 1), strides(stride, stride), paddingvalid)(x)x layers.BatchNormalization()(x)x layers.Activation(relu)(x)x layers.Conv2D(f2, kernel_size, strides(1, 1), paddingsame)(x)x layers.BatchNormalization()(x)x layers.Activation(relu)(x)x layers.Conv2D(f3, (1, 1), strides(1, 1), paddingvalid)(x)x layers.BatchNormalization()(x)x_skip layers.Conv2D(f3, (1, 1), strides(stride, stride), paddingvalid)(x_skip)x_skip layers.BatchNormalization()(x_skip)x layers.Add()([x, x_skip])x layers.Activation(relu)(x)return xdef ResNet(input_shape, num_classes, blocks):inputs layers.Input(shapeinput_shape)x layers.ZeroPadding2D(padding(3, 3))(inputs)x layers.Conv2D(64, (7, 7), strides(2, 2))(x)x layers.BatchNormalization()(x)x layers.Activation(relu)(x)x layers.MaxPooling2D((3, 3), strides(2, 2))(x)x convolutional_block(x, [64, 64, 256], kernel_size3, stride1)for _ in range(blocks[0] - 1):x identity_block(x, [64, 64, 256], kernel_size3)x convolutional_block(x, [128, 128, 512], kernel_size3, stride2)for _ in range(blocks[1] - 1):x identity_block(x, [128, 128, 512], kernel_size3)x convolutional_block(x, [256, 256, 1024], kernel_size3, stride2)for _ in range(blocks[2] - 1):x identity_block(x, [256, 256, 1024], kernel_size3)x convolutional_block(x, [512, 512, 2048], kernel_size3, stride2)for _ in range(blocks[3] - 1):x identity_block(x, [512, 512, 2048], kernel_size3)x layers.GlobalAveragePooling2D()(x)x layers.Dense(num_classes, activationsoftmax)(x)model models.Model(inputs, x)return model ResNet-50代码 # ResNet50 resnet50 ResNet((224, 224, 3), 1000, [3, 4, 6, 3]) resnet50.summary()plot_model(resnet50, to_fileresnet50.pdf, show_shapesTrue,show_layer_namesTrue)ResNet-101代码 # ResNet101 resnet101 ResNet((224, 224, 3), 1000, [3, 4, 23, 3]) resnet101.summary()plot_model(resnet101, to_fileresnet101.pdf, show_shapesTrue,show_layer_namesTrue)ResNet-152代码 # ResNet152 resnet152 ResNet((224, 224, 3), 1000, [3, 8, 36, 3]) resnet152.summary()plot_model(resnet152, to_fileresnet152.pdf, show_shapesTrue,show_layer_namesTrue)ResNet系列模型结构可视化 ResNet50、101、152模型结构PDF下载地址 P180–DenseNet【2017】 模型结构及创新性 DenseNetDensely Connected Convolutional Networks是由 Gao Huang 等人在 2017 年提出的一种卷积神经网络架构。DenseNet 的核心思想是通过密集连接Dense Connectivity来构建网络使得每一层都与之前所有层相连。 模型结构 输入层 输入图像尺寸通常为 224x224 像素的 RGB 图像。初始卷积层 使用 7x7 的卷积核64 个滤波器步长为 2后跟最大池化层。密集块Dense Block 网络由多个密集块组成每个密集块内部包含多个卷积层。每个卷积层的输出被直接连接到后续的所有卷积层形成了密集连接。通过将所有前面层的特征图作为输入DenseNet 能够有效地传递特征并减少梯度消失。过渡层Transition Layer 每个密集块后面有一个过渡层用于减少特征图的尺寸和通道数。过渡层通常包含 1x1 的卷积和 2x2 的平均池化。全局平均池化层 在最后一个密集块之后使用全局平均池化层减小特征图的尺寸。全连接层 最后一层使用 Softmax 激活函数输出类别概率。 DenseNet 的创新性 密集连接 每一层都与前面的所有层相连这种连接方式增强了特征的传播和重用解决了深层网络中的梯度消失问题。 参数效率 DenseNet 通过重用特征图显著减少了模型参数的数量相比于传统的卷积网络DenseNet 具有更高的参数效率。 特征重用 通过密集连接DenseNet 能够在不同层之间共享特征使得网络更加高效并且有助于学习更丰富的特征表示。 适应性强 DenseNet 在不同的任务和数据集上表现出色适用于图像分类、目标检测等多种计算机视觉任务。 网络深度 DenseNet 可构建非常深的网络如 DenseNet-121、DenseNet-169、DenseNet-201在多个基准数据集上取得了优秀的结果。 DenseNet-121、169、201模型结构代码 import matplotlib.pyplot as plt import tensorflow as tf from keras.utils import plot_model from tensorflow.keras import layers, models# macos系统显示中文 plt.rcParams[font.sans-serif] [Arial Unicode MS]def dense_block(x, units):for i in range(units):x1 layers.BatchNormalization()(x)x1 layers.ReLU()(x1)x1 layers.Conv2D(32, (1, 1), paddingsame)(x1)x2 layers.BatchNormalization()(x1)x2 layers.ReLU()(x2)x2 layers.Conv2D(32, (3, 3), paddingsame)(x2)x layers.Concatenate()([x, x2])return xdef transition_layer(x, reduction):x layers.BatchNormalization()(x)x layers.ReLU()(x)x layers.Conv2D(int(tf.keras.backend.int_shape(x)[-1] * reduction), (1, 1), paddingsame)(x)x layers.AveragePooling2D((2, 2), strides(2, 2))(x)return xdef create_densenet(input_shape(224, 224, 3), num_classes1000, dense_blocks(6, 12, 24, 16)):inputs layers.Input(shapeinput_shape)x layers.Conv2D(64, (7, 7), strides2, paddingsame)(inputs)x layers.BatchNormalization()(x)x layers.ReLU()(x)x layers.MaxPooling2D((3, 3), strides2)(x)for i, block_size in enumerate(dense_blocks):x dense_block(x, unitsblock_size)if i len(dense_blocks) - 1:x transition_layer(x, reduction0.5)x layers.GlobalAveragePooling2D()(x)outputs layers.Dense(num_classes, activationsoftmax)(x)model models.Model(inputs, outputs)return modelDenseNet-121代码 # 创建 DenseNet-121 模型 densenet121_model create_densenet(dense_blocks(6, 12, 24, 16)) densenet121_model.summary()plot_model(densenet121_model, to_filedensenet121_model.pdf, show_shapesTrue,show_layer_namesTrue)DenseNet-169代码 # 创建 DenseNet-169 模型 densenet169_model create_densenet(dense_blocks(6, 12, 32, 32)) densenet169_model.summary()plot_model(densenet169_model, to_filedensenet169_model.pdf, show_shapesTrue,show_layer_namesTrue)DenseNet-201代码 # 创建 DenseNet-201 模型 densenet201_model create_densenet(dense_blocks(6, 12, 48, 32)) densenet201_model.summary()plot_model(densenet201_model, to_filedensenet201_model.pdf, show_shapesTrue,show_layer_namesTrue)DenseNet系列模型结构可视化 DenseNet121、169、201模型PDF高清结构下载地址
http://www.w-s-a.com/news/797805/

相关文章:

  • 高端设计网站都有哪些月付网站空间提供商
  • 家政 东莞网站建设优化设计官方电子版
  • 做网站如何使用网页插件上海造价信息网
  • 承德网站制作加盟天津做优化的网站有多少家
  • 北京市保障性住建设投资中心网站首页专业做网站联系电话
  • 镇江网站建设方式优化单页面网站教程
  • 做手机网站公司北京网页设计公司兴田德润实惠
  • 域名申请好了 要怎么做网站百度推广开户渠道
  • 电商网站建设 数商云焦作黄河交通学院
  • 做一个网站成本多少太原网站维护
  • 网站建设制作设计优化怎么制作网页步骤
  • 花都区pc端网站建设画册设计多少钱一页
  • 国外买域名的网站廊坊网站制作网页
  • 抚顺市城市建设档案馆网站制作网页时经常用的一种动态位图格式是
  • 公司网站站群是什么运营网站
  • 昆明网站建设大全安徽教育机构网站建设
  • 广州网站排名怎么优化中华衣柜网
  • 怎样围绕网站专题发展来做ppt城乡住建局官网
  • 安卓手机app制作关键词优化公司
  • 江苏固茗建设有限公司网站深圳网站建设深圳网
  • 高性能网站建设指南北京城乡建设官方网站
  • 企业网站找谁做做淘宝相关网站
  • 商业网站网站建设wordpress关闭前端公共库
  • 打开山东城市建设职业学院网站下载了wordpress后
  • 四川网站建设设计城乡建设网站证件查询系统
  • 企业邮箱哪里买栾城seo整站排名
  • 长沙网站建设zh68网页制作技术实训报告
  • 电商网站的功能手机广告设计与制作软件
  • 做网站前端需要编程基础吗杭州市住房和城乡建设局
  • 网站开发一般学多久网站建设投标方案