广州网站建设 易企建站公司,wordpress图片主题中文版,网页制作教程ps,wordpress建站安全吗目录
1.1 卷积神经网络基础
3.1 AlexNet网络结构详解与花分类数据集下载
4.1 VGG网络详解及感受野的计算
5.1 GoogLeNet网络详解
6.1 ResNet网络结构#xff0c;BN以及迁移学习详解
总结#xff08;可以直接看总结#xff09; 1.1 卷积神经网络基础
视频讲解#xf…目录
1.1 卷积神经网络基础
3.1 AlexNet网络结构详解与花分类数据集下载
4.1 VGG网络详解及感受野的计算
5.1 GoogLeNet网络详解
6.1 ResNet网络结构BN以及迁移学习详解
总结可以直接看总结 1.1 卷积神经网络基础
视频讲解 1.1 卷积神经网络基础_哔哩哔哩_bilibili
发展不是一帆风顺的
全连接层 卷积层
目的进行图像特征提取
特性拥有局部感知机制权值共享
扩展到多维 特征总结
卷积核的channel与输入特征层的channek相同输出的特征矩阵channel与卷积核个数相同
sigmoid/Relu 两个激活函数 各有缺点
Sigmoid饱和时梯度值小网络层数较深时易出现梯度消失 Relu反向传播时出现非常大的梯度更新后导致权重分布中心小于零导致该处导数始终为零反向传播无法更新权重即进入失活状态。
出现越界情况用padding处理增补
池化层
和卷积层类似 但是要更简单
目的对特征图像进行稀疏处理减少数据运算量
补充反向传播后面跳过了
说明本节理论较多会枯燥尽管内容不需要完全掌握但是要大致理解留有印象
误差的计算 softmax让结果满足概率分布即概率和为1 猫/狗
sigmoid人类/男人
误差的反向传播
3.1 AlexNet网络结构详解与花分类数据集下载
视频讲解 3.1 AlexNet网络结构详解与花分类数据集下载_哔哩哔哩_bilibili
AlexNet2012冠军
该网络的亮点在于:
(1)首次利用 GPU进行网络加速训练。(2)使用了 ReLu 激活函数而不是传统的 sigmoid 激活函数以及 Tanh 激活函数。(3)使用了 LRN 局部响应归一化。(4)在全连接层的前两层中使用了 Dropout随机失活神经元操作以减少过拟合。
中间的图像很好的诠释了AlexNet的好处减少了过拟合的现象 解决方法使用Dropout的方式在网络正传播过程中随机失活一部分神经元
经卷积后的矩阵尺寸大小计算公式为:N(W-F2P)/S1 输入图片大小 W*W Filter大小F*F 步长 S padding的像素数P
4.1 VGG网络详解及感受野的计算
视频讲解 4.1 VGG网络详解及感受野的计算_哔哩哔哩_bilibili
网络结构 网络亮点
通过堆叠多个3*3的卷积核来替代大尺度卷积核减少所需参数 通过堆善两个3x3的卷积核替代5x5的卷积核通过堆叠三个3x3的卷积核替代7x7的卷积核。
为什么这么干 效果相同的情况下参数更少。
5.1 GoogLeNet网络详解
网络结构 网络中的亮点:
引入了Inception结构(融合不同尺度的特征信息)使用1x1的卷积核进行降维以及映射处理 减少参数/特征矩阵深度添加两个辅助分类器帮助训练丢弃全连接层使用平均池化层(大大减少模型参数)
注意AlexNet和VGG都只有一个输出层GooLeNet有三个输出层
6.1 ResNet网络结构BN以及迁移学习详解
视频讲解 6.1 ResNet网络结构BN以及迁移学习详解_哔哩哔哩_bilibili
网络结构
网络中的亮点:
超深的网络结构(突破1000层)提出residual模块 使用Batch Normalization加速训练(丟奔dropout)
随着网络加深梯度消失梯度爆炸现象越来越明显 BN等方式解决
Batch Normalization原理 要让整个训练样本的数据集满足分布规律均值为0方差为1 退化问题通过残差解决
迁移学习 常见的迁移学习方式:
1.载入权重后训练所有参数2.载入权重后只训练最后几层参数3.载入权重后在原网络基础上再添加一层全连接层仅训练最后一个全连接层
总结可以直接看总结
综上呢其实就是延续上一篇文章上基于机器学习的图像识别——遥感图像分类LeNet-5AlexNetVGGNetGoogLeNetResNet-CSDN博客
对五种”神经网络模型“的进一步讲解偏向于理论层面
但两篇文章整理的是不同博主的讲解视频讲的都蛮好的通过”对比学习“可以发现二者间会有一部分共通之处——这些共同之处一定是基础/重点当然我已经帮大家整理好了请各位放心食用。