当前位置: 首页 > news >正文

简洁中文网站模板一个服务器可以放多少网站

简洁中文网站模板,一个服务器可以放多少网站,网站被k原因,网站建设方案步骤文章目录 简介摘要引言多模态思维链推理的挑战多模态CoT框架多模态CoT模型架构细节编码模块融合模块解码模块 实验结果总结 简介 本文主要对2023一篇论文《Multimodal Chain-of-Thought Reasoning in Language Models》主要内容进行介绍。 摘要 大型语言模型#xff08;LLM… 文章目录 简介摘要引言多模态思维链推理的挑战多模态CoT框架多模态CoT模型架构细节编码模块融合模块解码模块 实验结果总结 简介 本文主要对2023一篇论文《Multimodal Chain-of-Thought Reasoning in Language Models》主要内容进行介绍。 摘要 大型语言模型LLM通过利用思想链CoT提示生成中间推理链作为推断答案的基本原理在复杂推理方面表现出了令人印象深刻的性能。然而现有的CoT研究主要集中在语言模态上。这篇文章提出了多模态CoT将语言文本和视觉图像模式结合到一个分为两个阶段的框架中该框架将基本原理生成和答案推理分开。通过这种方式答案推理可以利用基于多模式信息的更好生成的理由。使用多模CoT模型在10亿个参数下的性能比以前最先进的LLMGPT-3.5高出16个百分点75.17%→91.68%的准确率甚至超过了ScienceQA基准的人类表现。 引言 阅读一本没有数字或表格的教科书。通过联合建模不同的数据模式如视觉、语言和音频我们的知识获取能力大大增强。大型语言模型LLM通过在推断答案之前生成中间推理步骤在复杂推理中表现出了令人印象深刻的性能。这种有趣的技术被称为思维链推理CoT。 然而现有的与CoT推理相关的研究在很大程度上是孤立在语言模态中的很少考虑多模态场景。为了在多模态中引出CoT推理文章提倡多模态CoT范式。 给定不同模态的输入多模态CoT将多步骤问题分解为中间推理步骤基本原理然后推断答案。由于视觉和语言是最流行的模式我们在这项工作中重点关注这两种模式。 一个示例如图1所示。 通常有两种方法可以引发多模式CoT推理 i提示LLM ii微调小模型 执行多模式CoT的最直接方法是将不同模态的输入转换为一个模态并提示LLM执行CoT。例如可以通过字幕模型提取图像的字幕然后将字幕与要输入LLM的原始语言连接起来。然而在字幕制作过程中存在严重的信息丢失因此使用字幕与视觉特征相反可能会在不同模态的表示空间中缺乏相互协同作用。 为了促进模态之间的交互另一个潜在的解决方案是通过融合多模态特征来微调较小的语言模型。 由于这种方法允许灵活地调整模型架构以包含多模式特征在这项工作中研究了微调模型而不是提示LLM。 我们都知道1000亿参数100B下的语言模型往往会产生幻觉推理误导答案推理。 为了减轻幻觉的挑战文章提出了多模态CoT将语言文本和视觉图像模式结合到一个分为两个阶段的框架中该框架将原理生成和答案推理分开。通过这种方式答案推理可以利用基于多模式信息的更好生成的理由。我们的实验是在ScienceQA基准上进行的这是最新的带有注释推理链的多模式推理基准。实验结果表明我们的方法比以前的GPT-3.5模型提高了16%75.17%→91.68%。文章的贡献总结如下 i 这项工作是第一次以不同的方式研究CoT推理。 ii提出了一个两阶段框架通过微调语言模型来融合视觉和语言表示以执行多模式CoT。该模型能够生成信息理性以便于推断最终答案。 iii文章的方法在ScienceQA基准上实现了最先进的新性能比GPT-3.5的精度高出16%甚至超过了人类的性能。 多模态思维链推理的挑战 现有研究表明CoT推理能力可能在一定规模的语言模型中出现例如超过100B参数的大模型。然而在1B模型中激发这种推理能力仍然是一个悬而未决的挑战更不用说在多模式场景中了。 这篇文章的重点是在1B左右模型因为这样可以与常规消费级GPU例如32G内存一起进行微调和部署。接下来将阐述1B模型在CoT推理中失败的原因并研究如何设计一种有效的方法来克服这一挑战。 下面有个有趣的现象 在ScienceQA基准上微调了CoT推理的纯文本基准模型。采用UnifiedQA-Base作为主干语言模型。任务为文本生成问题其中模型将文本信息作为输入并生成由基本原理和答案组成的输出序列。如图1所示的示例该模型将问题文本Q、上下文文本C和多个选项M的标记串联作为输入。 为了研究CoT的影响我们将其与三种变体的性能进行了比较 i 直接预测答案无CoTQCM→A ii 推理其中答案推理以基本原理为条件QCM→RA iii 使用基本原理解释答案推理的解释QCM→AR。 令人惊讶的是我们观察到准确性下降12.54%80.40%→67.86%如果模型在回答之前预测理性QCM→RA。结果表明这些理由可能不一定有助于预测正确的答案。 其中的原因可能是模型在获得所需答案之前超过了最大token限制或者提前停止生成预测。 然而文章发现生成的输出RA的最大长度总是小于400个token这低于语言模型的长度限制。因此对理性危害答案推理的原因进行更深入的探讨是值得的。 为了进一步探究上述情况形成的原因并深入研究原理如何影响答案预测本文将CoT问题分为两个阶段即原理生成和答案推理。基本原理生成使用RougeL分数来评估和答案推理使用准确性评估。表3显示了基于两阶段框架的结果。尽管两阶段基线模型在基本原理生成方面获得了91.76的RougeL分数但答案推理的准确率仅为70.53%。 与表2中的QCM→A80.40%相比结果表明在两阶段框架中生成的基本原理并不能提高答案的准确性。 接着随机抽样50个错误案例发现模型倾向于产生幻觉推理误导答案推理。如图2所示的例子由于缺乏对视觉内容的参考模型左部分Baseline产生了“一个磁体的南极最接近另一磁体的南极”的幻觉。在错误案例中此类错误的发生率为64%。 文章推测这种幻觉现象是由于缺乏执行有效的多模CoT所需的视觉上下文。为了注入视觉信息一种简单的方法是将配对的图像转换为字幕然后将字幕附加在两个阶段的输入中。然而如表3所示使用字幕只会产生边际性能增益(增加0.59%). 然后通过将视觉特征纳入语言模型来探索一种先进的技术。具体而言将配对图像输入到DETR模型中以提取视觉特征。然后在提供给解码器之前融合视觉特征使用编码的语言表示。有了视觉特征基本原理生成的RougeL分数提高到了96.97%QCM→R 这相应地有助于提高84.91%的回答准确率QCMR→A.有了这些有效的理由幻觉现象得到了缓解——其中62.5%的幻觉错误已经得到纠正图3b。这表明视觉特征确实有利于生成有效的理由并有助于准确的答案推断。作为两阶段方法QCMR→A 表3中的方法比表2中的所有一阶段方法都获得了更好的性能在多模态CoT框架中选择了两阶段方法。 多模态CoT框架 基于之前的分析多模式CoT将语言文本和视觉图像模式合并到一个两阶段的框架中以减少幻觉输出提升模型的效果。 多模式CoT由两个训练阶段组成 i 基本原理生成 ii 答案推理 两个阶段共享相同的模型体系结构但输入X和输出Y不同。 整个过程如图4所示。 在基本原理生成阶段模型的输入为X其中X如下 其中括号中的前者表示第一阶段中的语言输入后者表示视觉输入即图像。 X可以看做实例化为多选推理问题的问题、上下文和选项的拼接如图4所示。目标是学习一个基本原理生成模型RFX其中R是基本原理。 在答案推理阶段将基本原理R融入到到原始语言输入因此继续构建第二阶段的语言输入其中◦ 表示拼接。然后我们将更新后的输入馈送到答案推理模型以推断最终答案。 现在回过头来看图4应该就比较清晰明了了。 多模态CoT模型架构细节 上面我们已经知道了文章的多模态CoT流程是怎么样的了接下来将分析其中关键的模型架构细节也就是上文提到的F( )以便我们能够对多模态CoT有更深入的理解。 F( )可以分为三个模块编码模块、融合模块、解码模块 编码模块 其中 LanguageEncoder(·)指的就是transformer的encoder部分输出的就是Transformer编码器中最后一层的隐藏状态。 VisionExtractor· 用于将输入图像矢量化为视觉特征使用的应该是现成的视觉提取模型DETR其实应该也是类似transformer的encoder因为计算机视觉中也有vision transformer。 融合模块 在编码模块获得到文本和图片的表示后先进行注意力计算将文本和图像信息联系起来 其中Q、K、V分别为 然后使用门控融合机制进行特征融合 其中都是可训练的参数。 解码模块 这里就比较简单使用的就是transformer的decoder作为输入输出为我们需要的Y 至此我们对多模态CoT应该有一个比较深入的了解了关键内容其实就是使用encoder将文本信息和图像信息表示出来使用门控融合机制进行特征融合然后预测出我们需要的结果这个过程就是F( )。 所以多模态CoT完整的流程就是先将初始的文本和图像输入F( )得到图片和原始文本融合之后的CoT然后再使用CoT的结果增强原始文本信息后得到的结果再和图片信息输入F( 得到我们最终需要的预测结果。此时再去看图4应该就一目了然了。 实验结果 表4显示了主要结果。Mutimodal CoTLarge比GPT-3.5高16.51%75.17%→91.68%并超过人类表现。具体而言在8个问题类别中Mutimodal CoT Large的得分为21.37%67.43%→88.80%的性能增益。与现有的UnifiedQA和GPT-3.5方法相比这些方法利用上下文中的图像字幕来提供视觉语义结果表明使用图像特征更有效。此外根据表5中的消融研究结果我们的两阶段框架有助于获得优异的结果。总体而言结果验证了多模态的有效性以及通过两阶段框架使用1B模型实现CoT推理的潜力。 总结 使用图像信息增强文本CoT减少模型幻觉提升模型效果蛮有意思的
http://www.w-s-a.com/news/19928/

相关文章:

  • 长沙网站建设联系电话怎么做表格
  • 网站怎么做域名实名认证龙华网站 建设信科网络
  • 企业网站规划方案网站是做排行榜
  • 万维网网站个人申请网站
  • 我想做网站怎么做昆山网站建设 全是乱码
  • 单位做网站怎么做圣诞树html网页代码
  • 网页开发与网站开发企业网站托管服务常用指南
  • 一站式服务图片临沂做进销存网站
  • 鸣蝉智能建站标准物质网站建设模板
  • 电商网站建设技术员的工作职责商业网站制作价格
  • 网站html模板免费下载公司的网站建设费用入什么科目
  • 高中生做网站网页网页制作教程零基础学会
  • 做金融网站有哪些要求WordPress站内搜索代码
  • 济南网站怎么做seowordpress注册发邮件
  • 珠海网站设计平台东莞市手机网站建设平台
  • 网站开发文档合同怎么在wordpress导航条下方加入文字广告链接
  • 网站建设需怎么做有网站怎么做企业邮箱
  • 网站制作流程视频教程小程序多少钱一年
  • 暗网是什么网站花都网站建设哪家好
  • 贵州网站开发流程晋江论坛手机版
  • 网站建设丿金手指谷哥14阿里巴巴官网电脑版
  • 网站开发招聘信息匿名ip访问网站受限
  • 网站转app工具网站规划建设与管理维护大作业
  • flash是怎么做网站的.net购物网站开发
  • 烟台网站建设求职简历品质商城网站建设
  • 做百度外链哪些网站权重高点做网站具备的条件
  • 怎么样用ppt做网站红番茄 网站点评
  • 建设银行河北分行招聘网站哪里能找到网站
  • 兰州营销型网站网站建设收费标准
  • 网站首页动图怎么做自己做网站很难