当前位置: 首页 > news >正文

网站建设 服务承诺罗湖网站建设罗湖网站设计

网站建设 服务承诺,罗湖网站建设罗湖网站设计,哪家公司建换电站,网站那种推广链接怎么做一、说明 注意力机制是深度学习领域的一个突破。它们帮助模型专注于数据的重要部分#xff0c;并提高语言处理和计算机视觉等任务的理解和性能。这篇文章将深入探讨深度学习中注意力的基础知识#xff0c;并展示其背后的主要思想。 二、注意力机制回顾 在我们谈论注意力之前并提高语言处理和计算机视觉等任务的理解和性能。这篇文章将深入探讨深度学习中注意力的基础知识并展示其背后的主要思想。 二、注意力机制回顾 在我们谈论注意力之前让我们先回顾一下深度学习中序列模型也称为递归神经网络或 RNN背后的基本思想。我们不打算深入研究这个领域但理解序列模型背后的概念将有助于我们理解注意力机制和它所解决的问题。 我们将使用的示例是一个用于将句子从英语翻译成意大利语的网络。该网络由两部分组成编码器对英语句子的含义进行编码以及将编码信息解码为句子到意大利语的翻译的解码器。 我们可以用以下方式来看待编码器 绿色矩形是输入。在图中所示的情况下输入是一系列英语单词这些单词组成了“I love dogs”这句话。蓝色矩形称为隐藏状态。隐藏状态应该包含有关当前输入的一些知识即先前的隐藏状态而先前的隐藏状态本身包含其输入和先前隐藏状态的知识。正式地我们可以这样写 通过这种方式我们将句子的信息编码为隐藏状态直到句子的结尾。在检查了所有输入之后编码器将句子的所有内容从最后一个隐藏状态开始汇总到两个向量中。第一个应该是解码器网络中应该进行实际转换的部分的初始隐藏状态 s₀第二个是上下文向量通常是编码器的最终隐藏状态c解码器的任何步骤都将使用它来帮助它理解它所处理的句子。 现在当我们在编码器部分完成句子信息的提炼后我们就可以开始解码信息并使用解码器将句子翻译成意大利语了。解码器的第一个输入是一个开始令牌它与初始隐藏状态和上下文向量一起构成了第一个隐藏状态。对于这种隐藏状态我们可以得到新句子的第一个输出。我们将该输出与上一个隐藏状态和上下文向量一起用作下一步的输入以构建新的隐藏状态和输出。正式地我们可以这样写 这个过程一直持续到我们得到一个停止令牌作为输出。 此过程适用于短句子但当句子变长时它可能会失败。原因是解码器对所有步骤都使用上下文向量并且它需要它包含有关原始句子的所有信息。对于一个很长的句子将整个信息保存在一个固定大小的向量中可能非常困难。该问题的解决方案可能是为解码器的每一步构建一个新的上下文向量。 三、注意力 我们将像以前一样保持编码器-解码器的架构但这次我们向网络添加了另一种机制为解码器的每一步构建一个新的上下文向量。 我们的编码器仍然会像以前一样检查输入序列并创建隐藏状态最后为解码器创建初始隐藏状态。现在我们不是使用编码器的最终隐藏状态来制作上下文向量而是使用解码器的初始隐藏状态和所有其他隐藏状态来构造它。为此我们将实现一个对齐函数该函数是在编码器的隐藏状态和解码器的隐藏状态上运行的 MPL。此函数计算编码器的每个隐藏状态的对齐分数即标量。从形式上讲第 i 个隐藏状态的步骤 t 的对齐分数为 这些分数表示鉴于解码器的当前隐藏状态我们应该在多大程度上关注编码器的每个隐藏状态。 例如对齐分数 e₁₁ 表示第一个隐藏状态对于解码器中第一个单词的预测有多重要。由于对齐分数是任意实数我们希望对它们应用 softmax 运算以获得概率分布。 这些概率是归一化对齐分数它们将用作编码器隐藏状态的注意力权重。新的上下文向量将是编码器的隐藏状态的加权和加上注意力权重的加权和。 从形式上讲步骤 t 的上下文向量是 现在我们可以使用新的上下文向量来预测解码器中的第一个单词。 就直觉而言在我们的示例中“amo”的意思是“我爱”因此我们可以预期 a₁₁ 和 a₁₂ 的分数很高而 a₁₃ 的分数很低。 好的部分是所有的操作都是差分的所以我们不需要对注意力权重进行任何监督我们可以在网络的常规训练中学习计算它们因此网络可以自行学习哪些部分是重要的每一步。 对于句子的其他部分解码器的预测以相同的方式继续进行。对于下一个单词我们通过使用 s₁ 来计算注意力权重来构造 c₂ 上下文向量。 我们可以看到英语和法语之间翻译中单词之间注意力权重的可视化下图取自 Bahdanau 等人。 由 RNNsearch-50 找到的比对。每个图的 x 轴和 y 轴分别对应于源句子英语和生成的翻译法语中的单词。每个像素以灰度0黑色1白色显示第 i 个目标词的第 j 个源词注释的权重 αij。资料来源图3。 您可以看到相关词的权重很高而关系较弱的词的权重很小。例如请参阅“Area”和“zone”一词的权重。这些词在句子中的不同位置但网络成功地将它们联系起来。 四、图片说明的注意事项 如果你仔细看一下前面的例子你会发现我们没有使用输入的顺序性质来表示注意力部分。这意味着我们可以将注意力用于其他不是序列的任务。使用注意力机制的另一个任务示例是图像标题。在图像描述中我们有一个图像我们希望我们的网络输出一个句子来描述我们在图像中看到的内容。 与翻译任务类似我们可以通过 CNN 网络运行图像并将最终输出作为特征向量网格这些特征向量类似于我们之前使用的隐藏状态。然后我们计算解码器的初始隐藏状态并将其与网格特征向量一起使用来计算对齐分数。使用 softmax我们得到注意力权重然后我们计算特征向量与注意力权重的加权和以构建上下文向量。最后我们使用上下文向量来生成标题中的第一个单词。 正式 和 在下面的可视化中可以看到网络对图像每个部分的关注。 随时间推移的注意力。当模型生成每个单词时其注意力会发生变化以反映图像的相关部分。资料来源Xu et al 例如您可以看到“鸟”一词如何关注鸟的图像部分而“水”一词如何关注背景中的水。 五、结论 在这篇文章中我们介绍了注意力机制背后的基本思想。我们看到了它如何通过关注编码器最相关的部分在每一步构建一个新的上下文向量从而解决编码器-解码器架构中处理长句子的问题以进行翻译。我们还看到了如何利用注意力机制来完成图像标题的任务其中注意力有助于将注意力集中在图像的相关部分以预测标题中的下一个单词。 在以后的文章中我们将回顾注意力的数学原理并介绍自我注意力模块。
http://www.w-s-a.com/news/197985/

相关文章:

  • 罗湖网站建设陕西省建设网官网住房和城乡厅官网
  • 做一个网站的详细教学wordpress 忘记用户名密码
  • 建设银行的网站是多少wordpress添加新页面跳转
  • 网站设计费用抓取网站访客qq号码
  • 驾校视频网站模板郑州网站建设价格
  • 上海 有哪些做网站的公司成都企业网站备案流程
  • 移动端快速建站的方法青海公司网站建设
  • 网站重新搭建程序要多少钱移动互联网应用的使用情况
  • 学建站论坛给别人做网站怎么赚钱吗
  • 响应式网站代码校友会网站建设的目的
  • 北京公司网站网站建设html模板
  • 专门做医疗器械的网站免费网页制作系统团队
  • 网站开发技术 html临夏网站建设
  • flash网站模板免费下载拍卖网站开发多少钱
  • 北京网站建设制作颍州网站建设
  • 网站制作报价表做网站上海公司
  • 简洁大气蓝色文章资讯网站百度搜索广告推广
  • 河南建设工程协会网站网站收银系统建设
  • 网站制作 服务企业网站案例展示
  • 咸宁网站建设wordpress手动降级
  • 昆明做网站建设怎么样做网站赚钱全攻略
  • 企业网站建设实战教程微信如何注册小程序
  • 做一件代发网站百度seo服务
  • 小说网站开发 公司可以做行程的网站
  • 古交市网站建设公司apk连接wordpress
  • 网页 网 址网站区别wordpress菜单居右
  • 网站建设搭建运营一台云服务器做多个网站
  • 用php做网站用什么框架推广网站推荐
  • 如何用二级域名做网站多用户网上商城
  • 河南省建设科技网站浅谈电子商务网站建设与规划