当前位置: 首页 > news >正文

如何修改模板网站河北省建设安全监督站的网站

如何修改模板网站,河北省建设安全监督站的网站,烟台搭建网站建设制作,网站负责人信息表我们之前讨论的多层感知机十分适合处理表格数据#xff0c;其中行对应样本#xff0c;列对应特征。 对于表格数据#xff0c;我们寻找的模式可能涉及特征之间的交互#xff0c;但是我们不能预先假设任何与特征交互相关的先验结构。 此时#xff0c;多层感知机可能是最好的…我们之前讨论的多层感知机十分适合处理表格数据其中行对应样本列对应特征。 对于表格数据我们寻找的模式可能涉及特征之间的交互但是我们不能预先假设任何与特征交互相关的先验结构。 此时多层感知机可能是最好的选择然而对于高维感知数据这种缺少结构的网络可能会变得不实用。 例如在之前猫狗分类的例子中假设我们有一个足够充分的照片数据集数据集中是拥有标注的照片每张照片具有百万级像素这意味着网络的每次输入都有一百万个维度。 即使将隐藏层维度降低到1000这个全连接层也将有 1 0 6 × 1 0 3 1 0 9 10^{6}\times 10^{3}10^{9} 106×103109个参数。 想要训练这个模型将不可实现因为需要有大量的GPU、分布式优化训练的经验和超乎常人的耐心。 在这个例子中假设我们有一个标记好的图像数据集其中每张图像具有百万级别的像素。这意味着每次输入到网络中的数据维度是一百万维即每张图像由一百万个像素值组成。 文中提到的“每次输入都有一百万个维度”指的是每张图片被视为一个具有一百万个数值的向量每个数值代表一个像素点的信息。在深度学习中每一个输入维度通常对应于一个神经网络的输入节点。 接着文中提到假设将隐藏层的维度降低到1000这里的“隐藏层维度”指的是这一层中包含的神经元或节点数量。简单来说这就是这层可以学习到的不同特征的数量。 最后“这个全连接层也将有 1 0 6 × 1 0 3 1 0 9 10^{6}\times 10^{3}10^{9} 106×103109个参数”这句话描述的是在一个全连接的神经网络层中输入层和隐藏层之间的参数数量。全连接层意味着每个输入节点都与下一层的每个节点相连。这里的参数通常是指权重每个连接都有一个权重。所以如果输入层有一百万个节点隐藏层有1000个节点那么总的连接数即权重数就是一百万乘以一千即一千亿个权重。 这一千亿个权重参数的数量非常庞大这也说明了为什么在实际应用中处理这样大规模的数据和网络结构需要极大的计算资源和优化方法。 有些读者可能会反对这个观点认为要求百万像素的分辨率可能不是必要的。 然而即使分辨率减小为十万像素使用1000个隐藏单元的隐藏层也可能不足以学习到良好的图像特征在真实的系统中我们仍然需要数十亿个参数。 此外拟合如此多的参数还需要收集大量的数据。 然而如今人类和机器都能很好地区分猫和狗这是因为图像中本就拥有丰富的结构而这些结构可以被人类和机器学习模型使用。 卷积神经网络convolutional neural networksCNN是机器学习利用自然图像中一些已知结构的创造性方法。 不变性 想象一下假设我们想从一张图片中找到某个物体。 合理的假设是无论哪种方法找到这个物体都应该和物体的位置无关。 理想情况下我们的系统应该能够利用常识猪通常不在天上飞飞机通常不在水里游泳。 但是如果一只猪出现在图片顶部我们还是应该认出它。 我们可以从儿童游戏”沃尔多在哪里” 图6.1.1中得到灵感 在这个游戏中包含了许多充斥着活动的混乱场景而沃尔多通常潜伏在一些不太可能的位置读者的目标就是找出他。 尽管沃尔多的装扮很有特点但是在眼花缭乱的场景中找到他也如大海捞针。 然而沃尔多的样子并不取决于他潜藏的地方因此我们可以使用一个“沃尔多检测器”扫描图像。 该检测器将图像分割成多个区域并为每个区域包含沃尔多的可能性打分。 卷积神经网络正是将空间不变性spatial invariance的这一概念系统化从而基于这个模型使用较少的参数来学习有用的表示。 现在我们将上述想法总结一下从而帮助我们设计适合于计算机视觉的神经网络架构。 平移不变性translation invariance不管检测对象出现在图像中的哪个位置神经网络的前面几层应该对相同的图像区域具有相似的反应即为“平移不变性”。 平移不变性意味着当一个物体在图像中移动时无论它出现在图像的哪个位置神经网络对该物体的识别应保持不变。这是通过神经网络的设计实现的特别是在卷积神经网络中通过使用卷积层来实现。卷积层通过在整个图像上滑动同一卷积核或滤波器提取图像的特征。由于同一卷积核被用于图像的每个部分因此无论物体在图像中的哪个位置相同的特征都会被相同方式处理从而实现平移不变性。这是处理图像时非常重要的属性因为它允许模型以更泛化的方式识别物体不受其在图像中位置的影响。 局部性locality神经网络的前面几层应该只探索输入图像中的局部区域而不过度在意图像中相隔较远区域的关系这就是“局部性”原则。最终可以聚合这些局部特征以在整个图像级别进行预测。 局部性原则指的是神经网络在处理图像时应该首先关注图像的小部分或局部区域而不是立即尝试理解图像中远距离区域间的关系。这也是通过卷积层实现的其中卷积核只覆盖图像的一小块区域。这样网络可以先识别小范围内的简单特征如边缘和角点然后逐层组合这些局部特征逐渐构建出更复杂的表示最终能够识别整个图像中的复杂对象。通过这种方式网络可以有效地捕捉到重要的局部模式而不会被图像中不相关的信息干扰。 多层感知机的限制 下面这节描述的是如何将一个多层感知机MLP用于处理具有空间结构的二维图像数据而非仅处理一维的数值数据 下面我将逐步解释这个过程 二维图像作为输入 输入数据 X X X是一个二维图像这意味着它具有空间维度例如宽度和高度。在这里 X X X可以表示为一个矩阵或在编程中用二维张量来处理。隐藏表示 隐藏表示 H H H也是一个矩阵或二维张量并且具有与输入图像 X X X相同的形状。这表示 H H H在每个位置 ( i , j ) (i,j) (i,j)都有一个与输入图像中对应位置相关的隐藏值。空间结构的重要性 文章提到输入和隐藏表示都“拥有空间结构”。这意味着图像的每个像素位置不仅仅是独立的数据点而是与其周围的像素在空间上是相关的。这种空间关系在处理图像时非常重要因为图像中物体和特征的识别依赖于像素间的这种空间关系。权重的变化 在传统的多层感知机中每个输入节点与每个输出节点之间通常通过一个权重矩阵连接。这种结构适合处理一维数据但对于保持图像的空间结构则不够有效。因此文中提到需要使用一个四阶权重张量 W W W替换传统的权重矩阵。四阶权重张量 四阶权重张量 W W W可以理解为一个高维数组其中包含了更多的维度来适应图像处理的需要。在图像处理中每个“隐藏神经元”即 H H H中的每个元素需要接收到来自 X X X中每个像素的信息。为了实现这一点权重张量 W W W不仅记录了从输入到输出的连接强度而且还能够处理输入数据的空间关系。这使得模型可以更有效地捕捉图像中的空间和视觉模式。 总的来说这段话描述的是如何通过扩展多层感知机的结构使用更复杂的权重形式来适应对具有空间结构的数据如图像的处理使每个输出节点能够有效地接收并处理来自每个输入节点的信息同时保持输入数据的空间特性。 首先多层感知机的输入是二维图像 X X X其隐藏表示 H H H在数学上是一个矩阵在代码中表示为二维张量。 其中 X X X和 H H H具有相同的形状。 为了方便理解我们可以认为无论是输入还是隐藏表示都拥有空间结构。 使用 [ X ] i , j [X]_{i,j} [X]i,j​和 [ H ] i , j [H]_{i,j} [H]i,j​分别表示输入图像和隐藏表示中位置 ( i , j ) (i,j) (i,j)处的像素。 为了使每个隐藏神经元都能接收到每个输入像素的信息我们将参数从权重矩阵如同我们先前在多层感知机中所做的那样替换为四阶权重张量 W W W( W W W是全连接层的权重)。假设 U U U包含偏置参数我们可以将全连接层形式化地表示为: 以前是变成一维向量现在是二维所以现在是遍历 k k k和 l l l这两个维度来求和。 其中从 W W W到 V V V的转换只是形式上的转换因为在这两个四阶张量的元素之间存在一一对应的关系。我们只需重新索引下标 ( k , l ) (k,l) (k,l)使 k i a kia kia、 l j b ljb ljb由此可得 [ V ] i , j , a , b [ W ] i , j , i a , j b [V]_{i,j,a,b}[W]_{i,j,ia,jb} [V]i,j,a,b​[W]i,j,ia,jb​。索引 a a a和 b b b通过在正偏移和负偏移之间移动覆盖了整个图像。对于隐藏表示中任意给定位置 ( i , j ) (i,j) (i,j)处的像素值 [ H ] i , j [H]_{i,j} [H]i,j​可以通过在 x x x中以 ( i , j ) (i,j) (i,j)为中心对像素进行加权求和得到加权使用的权重为 [ V ] i , j , a , b [V]_{i,j,a,b} [V]i,j,a,b​。 上面描述的是如何使用一个二维卷积核来在多层感知机中处理图像数据这里的重点是用来计算隐藏层 H H H的公式。 公式的解释如下 [ H ] i , j [H]_{i,j} [H]i,j​ 表示隐藏层在位置 ( i , j ) (i,j) (i,j)的值。 [ U ] i , j [U]_{i,j} [U]i,j​ 是一个偏置项为每个位置 ( i , j ) (i,j) (i,j)提供一个基础值。 W i , j , k , l W_{i,j,k,l} Wi,j,k,l​ 是一个四阶权重张量表示输入像素 ( k , l ) (k,l) (k,l)对于隐藏层位置 ( i , j ) (i,j) (i,j)的影响权重。 [ X ] k , l [X]_{k,l} [X]k,l​ 是输入图像在位置 ( k , l ) (k,l) (k,l)的像素值。 隐藏层的每个位置 ( i , j ) (i,j) (i,j)的值是通过一个加权和计算的加权和中包括了所有输入像素的影响具体公式为 这里的求和操作遍历所有的输入像素 [ W ] i , j , k , l × [ X ] k , l [W]_{i,j,k,l} \times [X]_{k,l} [W]i,j,k,l​×[X]k,l​ 表示输入像素 ( k , l ) (k,l) (k,l)对隐藏层位置 ( i , j ) (i,j) (i,j)的贡献。 上面还提到了一种简化形式的权重表示用 V i , j , a , b V_{i,j,a,b} Vi,j,a,b​替换 W i , j , k , l W_{i,j,k,l} Wi,j,k,l​并且假设 这里的 a a a和 b b b表示相对于中心位置 ( i , j ) (i,j) (i,j)的偏移量。因此简化后的卷积公式变为 这实际上是一个典型的卷积操作其中 V i , j , a , b V_{i,j,a,b} Vi,j,a,b​是卷积核而 [ X ] i a , j b [X]_{ia,jb} [X]ia,jb​是输入图像在卷积核覆盖的区域内的像素。这种表示方式在实际的图像处理和神经网络中被广泛使用因为它可以有效地利用图像的局部空间关系同时减少模型中的参数数量。 平移不变性 不管探测的 ( i , j ) (i,j) (i,j)移动到哪里 [ V ] a , b [V]_{a,b} [V]a,b​是不变的。 这段内容进一步阐释了之前提到的卷积操作特别是引入了平移不变性的概念并且讨论了权重共享对于减少模型复杂度的重要性。 平移不变性 平移不变性意味着当输入图像中的特征在空间上发生平移时网络的响应方式应该是一致的。也就是说无论一个特征出现在输入图像的哪个位置卷积网络都应该能够以相同的方式识别它。这种属性在处理图像和其他形式的空间数据时非常重要因为它允许模型在不同位置检测到相同的特征。 权重共享 在卷积神经网络中同一个卷积核包含权重 V a , b V_{a,b} Va,b​在整个输入图像上滑动用于提取特征。这意味着相同的权重被用来处理输入数据的不同部分这样做极大地减少了模型的参数数量因为不需要为每个像素或区域学习一个独立的权重集。权重共享也有助于提高模型的训练效率和泛化能力。 其实这里也可以叫做二维的交叉相关。即输出的像素是等于输入的对应像素以它为中心作偏移和模式 [ V ] a , b [V]_{a,b} [V]a,b​作内积。 二维卷积就是全连接或者说是一个矩阵乘法但是我的权重的一些东西是重复的不是每一个元素都可以自由变换。我们也知道说当我们把一个模型的取值范围做了限制的话我们就把模型的复杂度降低了也就是说我不要存那么多元素了。 局部性 a a a和 b b b都只从 − Δ -\Delta −Δ到 Δ \Delta Δ之间变换。 简而言之 (6.1.3)是一个卷积层convolutional layer而卷积神经网络是包含卷积层的一类特殊的神经网络。 在深度学习研究社区中 V V V被称为卷积核convolution kernel或者滤波器filter亦或简单地称之为该卷积层的权重通常该权重是可学习的参数。 当图像处理的局部区域很小时卷积神经网络与多层感知机的训练差异可能是巨大的以前多层感知机可能需要数十亿个参数来表示网络中的一层而现在卷积神经网络通常只需要几百个参数而且不需要改变输入或隐藏表示的维数。 参数大幅减少的代价是我们的特征现在是平移不变的并且当确定每个隐藏活性值时每一层只包含局部的信息。 以上所有的权重学习都将依赖于归纳偏置。当这种偏置与现实相符时我们就能得到样本有效的模型并且这些模型能很好地泛化到未知数据中。 但如果这偏置与现实不符时比如当图像不满足平移不变时我们的模型可能难以拟合我们的训练数据。 卷积是一个特殊的全连接层。 卷积 “沃尔多在哪里”回顾 回到上面的“沃尔多在哪里”游戏让我们看看它到底是什么样子。卷积层根据滤波器 V V V选取给定大小的窗口并加权处理图片如图6.1.2中所示。我们的目标是学习一个模型以便探测出在“沃尔多”最可能出现的地方。 通道 在多通道输入与多通道输出的卷积中每个输入通道都通过一个卷积核或多个进行处理然后所有的结果会被整合到输出通道中。这种结构允许网络学习从不同的特征组合中提取信息。 在这种设置中每个输出通道的值是通过对所有输入通道进行卷积运算并累加得到的。这意味着每个输出通道可以看作是从所有输入通道中提取特征的一个“过滤器”。公式中的卷积核尺寸、步长通常由卷积操作外部定义和填充方式都会影响输出特征图的维度。 这种多通道到多通道的卷积方式在实际应用中极其重要因为它允许网络捕捉跨通道的复杂模式这对于图像处理例如颜色和纹理信息的整合、视频处理和其他多维信号处理任务至关重要。 通过这样的结构卷积神经网络能够构建从简单到复杂的信息层次逐步抽象输入数据中的高级特征这对于深度学习模型的成功执行各种任务如图像识别、语音识别和自然语言处理是基础。 小结 图像的平移不变性使我们以相同的方式处理局部图像而不在乎它的位置。 局部性意味着计算相应的隐藏表示只需一小部分局部图像像素。 在图像处理中卷积层通常比全连接层需要更少的参数但依旧获得高效用的模型。 卷积神经网络CNN是一类特殊的神经网络它可以包含多个卷积层。 多个输入和输出通道使模型在每个空间位置可以获取图像的多方面特征。
http://www.w-s-a.com/news/754010/

相关文章:

  • 顺德公司做网站自己有网站怎么优化
  • 南京网站开发南京乐识专业外贸流程知乎
  • 盐田区住房和建设局网站分类网站有哪些
  • 建一个团购网站WordPress文章字号设置
  • 做漂亮的网站东营网站seo
  • 网站开发摊销做设计哪个网站可以接单
  • 惠州h5网站建设建设公司网站报价
  • 做网站多少钱 优帮云嘉兴五县两区网站建设
  • 三亚旅游网站策划书企业网站建设的定位
  • 网站建设工作台账网站建设的实验结论
  • 商业网站建设平台制作软件的软件
  • 本地网站开发wordpress页面关键词和描述
  • 微网站 合同软件开发培训方案
  • 怎么做淘宝客网站备案广告公司图片大全
  • 微信小程序展示网站建设多少钱做网站用什么软件初二
  • 瀑布流资源网站模板打码网站建设
  • wordpress 支付宝打赏网站视觉优化的意义
  • 建设网站需要几个文件夹永久免费内存大服务器
  • 可信赖的手机网站建设wordpress 显示摘要
  • 谁给我一个企业邮箱认证wordpress优化攻略
  • 建站软件免费版下载涿州做网站的
  • html5网站开发西安哪家网站建设公司好
  • 怎么做网站赚广州番禺区是富人区吗
  • 服装网站推广方案戴尔网站建设成功
  • 手机网站布局国外可以用什么网站做问卷
  • 手机建网站网店logo设计图片免费
  • 装修网站有哪些wordpress外网访问错误
  • 个人做电影网站服务器放国外安全吗建设通app
  • 西安公司网站开发快站官网平台
  • 北京网站设计公司哪个好网站开发属于哪个部门