当前位置: 首页 > news >正文

大连模板建站系统wordpress 目录别名

大连模板建站系统,wordpress 目录别名,WordPress 文艺,代做ppt的网站科学突破很少发生在真空中。相反#xff0c;它们往往是建立在积累的人类知识之上的阶梯的倒数第二步。要了解 ChatGPT 和 Google Bart 等大型语言模型 #xff08;LLM#xff09; 的成功#xff0c;我们需要回到过去并谈论 BERT。 BERT 由 Google 研究人员于 2018 年开发它们往往是建立在积累的人类知识之上的阶梯的倒数第二步。要了解 ChatGPT 和 Google Bart 等大型语言模型 LLM 的成功我们需要回到过去并谈论 BERT。 BERT 由 Google 研究人员于 2018 年开发是首批 LLM 之一。凭借其惊人的结果它迅速成为NLP任务中无处不在的基线包括一般语言理解问答和命名实体识别。 可以说BERT为我们如今目睹的生成式AI革命铺平了道路。尽管 BERT 是最早的 LLM 之一但它仍然被广泛使用有数千个开源、免费和预训练的 BERT 模型可用于特定用例例如情感分析、临床笔记分析和有害评论检测。 对 BERT 感到好奇吗继续阅读本文我们将探讨 Ber 的架构、该技术的内部工作原理、它的一些实际应用及其局限性。 什么是 BERT BERT代表 Bidirectional Encoder Representations from Transformers是 Google 于 2018 年开发的开源模型。这是一项雄心勃勃的实验旨在测试所谓的 Transformers一种创新的神经架构由谷歌研究人员在 2017 年的著名论文《注意力是你所需要的一切》中提出在自然语言 NLP 任务上的性能。 BERT成功的关键在于其变压器架构。在 Transformer 出现之前对自然语言进行建模是一项非常具有挑战性的任务。尽管复杂的神经网络即递归神经网络或卷积神经网络兴起但结果仅部分成功。 主要的挑战在于神经网络用于预测句子中缺失单词的机制。当时最先进的神经网络依赖于编码器-解码器架构这是一种功能强大但耗时耗资源的机制不适合并行计算。 考虑到这些挑战谷歌研究人员开发了转换器这是一种基于注意力机制的创新神经架构如下一节所述。 BERT是如何工作的 让我们来看看 BERT 是如何工作的包括模型背后的技术、它是如何训练的以及它如何处理数据。 核心体系结构和功能 递归神经网络和卷积神经网络使用顺序计算来生成预测。也就是说一旦在大型数据集上进行训练他们可以预测哪个单词将遵循给定的单词序列。从这个意义上说它们被认为是单向或上下文无关的算法。 相比之下像BERT这样同样基于编码器-解码器架构的转换器驱动的模型是双向的因为它们根据前一个单词和后面的单词来预测单词。这是通过自注意力机制实现的自注意力机制是编码器和解码器中都包含的一层。注意力层的目标是捕获输入句子中不同单词之间存在的上下文关系。 如今预训练的BERT有很多版本但在最初的论文中Google 用不同的神经架构训练了两个版本的 BERT: BERTbase 和 BERTlarge。本质上BERTbase 有12个变压器层12个关注层1.1亿个参数而 BERTlarge 有 24 个变压器层16个关注层3.4 亿个参数。正如预期的那样BERTlarge 在准确性测试中的表现优于它的小兄弟。 ​ 预训练和微调 Transformer 在庞大的数据语料库上从头开始训练遵循一个耗时且昂贵的过程只有包括 Google 在内的少数公司才能负担得起。 就 BERT 而言它在维基百科~2.5B 字和 Google 的 BooksCorpus~800M 字上进行了为期四天的预训练。这使得该模型不仅可以获得英语知识还可以获得来自世界各地的许多其他语言的知识。 为了优化训练过程谷歌开发了新的硬件即所谓的TPU张量处理单元专为机器学习任务而设计。 为了避免训练过程中不必要且成本高昂的交互谷歌研究人员使用迁移学习技术将预训练阶段与微调阶段分开。这允许开发人员选择预训练模型细化目标任务的输入输出对数据并使用特定于领域的数据重新训练预训练模型的头部。这个特性使像 BERT 这样的 LLM 成为建立在它们之上的无穷无尽的应用程序的基础模型 掩码语言建模在BERT处理中的作用 在BERT以及每个基于transformers的LLM中实现双向学习的关键因素是注意力机制。此机制基于掩码语言建模 MLM。通过屏蔽句子中的单词此技术迫使模型在句子中两个方向上分析剩余的单词以增加预测被屏蔽单词的机会。MLM基于在计算机视觉领域已经尝试过的技术非常适合需要对整个序列有良好上下文理解的任务。 BERT是第一个应用这种技术的法学硕士。特别是随机 15% 的标记化单词在训练期间被屏蔽。结果表明BERT能够较准确地预测隐藏词。 BERT是做什么用的BERT对NLP的影响 在转换器的支持下BERT能够在多个NLP任务中实现最先进的结果。以下是 BERT 擅长的一些测试 问答BERT是最早由变压器驱动的聊天机器人之一取得了令人印象深刻的成果。情绪分析例如BERT已经成功地预测了电影评论的正面或负面标点符号。文本生成作为下一代聊天机器人的前身BERT已经能够通过简单的提示创建长文本。总结文本同样BERT能够阅读和总结来自复杂领域的文本包括法律和医疗保健。语言翻译BERT已经接受过多种语言编写的数据训练。这使它成为一个多语言模型这意味着它非常适合语言翻译。自动完成任务BERT 可用于自动完成任务例如在电子邮件或消息传递服务中。 BERT的实际应用 许多LLM已经在实验集中进行了尝试但尚未将许多LLM纳入成熟的应用程序中。BERT的情况并非如此它每天都有数百万人使用尽管我们可能没有意识到这一点。 一个很好的例子是谷歌搜索。2020 年谷歌宣布已通过 70 多种语言的 Google 搜索采用 BERT。这意味着谷歌使用BERT对内容进行排名并显示精选片段。借助注意力机制Google 现在可以使用问题的上下文来提供有用的信息如以下示例所示。 ​ BERT的变体和改编 但这只是故事的一部分。BERT的成功很大程度上归功于其开源性质它允许开发人员访问原始BERT的源代码并创建新功能和改进。 这导致了大量的 BERT 变体。下面您可以找到一些最著名的变体 RoBERTa  RoBERTa 是“Robustly Optimized BERT Approach”的缩写是 Meta 与华盛顿大学合作创建的 BERT 变体。RoBERTa 被认为是比原始 BERT 更强大的版本它使用比用于训练 BERT 的数据集大 10 倍的数据集进行训练。至于它的架构最显着的区别是使用动态掩码学习而不是静态掩码学习。这种技术涉及复制训练数据并对其进行 10 次屏蔽每次都使用不同的掩码策略使 RoBERTa 能够学习更强大和可推广的单词表示。DistilBERT自 2010 年代后期推出第一批 LLM 以来一直存在着构建更大、更重的 LLM 的综合趋势。这是有道理的因为模型大小和模型精度之间似乎存在直接关系。然而模型越大运行所需的资源就越多因此使用它的人就越少。DistilBERT 旨在通过提供更小、更快、更便宜和更轻的变体来使 BERT 更易于访问。基于原始 BERT 的架构DistilBERT 在预训练期间使用知识提炼技术将大小减少 40%同时保留其 97% 的语言理解能力速度提高 60%。ALBERTALBERT 代表 A Lite BERT专门设计用于在预训练期间提高 BERTlarge 的效率。由于训练更大的模型通常会导致内存限制、更长的训练时间和意外的模型退化因此 ALBERT 的创建者开发了两种参数缩减技术来减少内存咨询并提高训练期间的速度。 如果您想了解更多关于开源 LLM 运动的信息我们强烈建议您阅读我们关于 2023 年顶级开源 LLM 的帖子 针对特定任务微调 BERT BERT 和一般的 LLM 最伟大的事情之一是预训练过程与微调过程是分开的。这意味着开发人员可以采用预先训练的 BERT 版本并针对他们的特定用例对其进行自定义。 就 BERT 而言有数百个针对各种 NLP 任务开发的 BERT 微调版本。下面您可以找到一个非常非常有限的 BERT 微调版本列表 BERT-base-chinese一个针对中文 NLP 任务训练的 BERTbase 版本BERT-base-NER: 为命名实体识别定制的 BERTbase 版本Symps_disease_bert_v3_c41。自然语言聊天机器人的症状到疾病分类模型。BERT专利是谷歌在全球100M专利上训练的模型。它基于 BERTlarge。 了解 BERT 的局限性 BERT 具有与 LLM 相关的传统限制和问题。BERT的预测始终基于用于训练它的数据的数量和质量。如果训练数据有限、贫乏且有偏见BERT 可能会抛出不准确、有害的结果甚至是所谓的LLM幻觉 。 在原始 BERT 的情况下这种情况更有可能发生因为该模型是在没有从人类反馈中强化学习 RLHF 的情况下训练的RLHF 是 ChatGPT、LLaMA 2 和 Google Bard 等更高级模型使用的标准技术用于增强 AI 安全性。RLHF 涉及在培训期间使用人类反馈来监控和指导 LLM 的学习过程从而确保有效、安全和可信的系统。 此外尽管与其他最先进的 LLM 如 ChatGPT相比它可以被认为是一个小模型但它仍然需要相当大的计算能力来运行它更不用说从头开始训练它了。因此资源有限的开发人员可能无法使用它。 BERT和NLP的未来 BERT是最早的现代LLM之一。但远非老式BERT仍然是最成功和最广泛使用的LLM之一。 由于其开源性质今天有多种变体和数百个预训练版本的BERT专为特定的NLP任务而设计。
http://www.w-s-a.com/news/230113/

相关文章:

  • 北京定制网站价格开网店怎么卖到外国
  • 做网站 后端是谁来做的工程建设指挥部网站
  • wordpress建站 云打印昆明 网站设计
  • 太原网站建设设计网站建设策划书(建设前的市场分析)
  • 哪里有制作网站电商新手入门知识
  • 制作网站的后台文昌网站建设 myvodo
  • 网站 购买移动网站制作
  • 南京网站网站建设学校英山做网站多少钱
  • 珠海网站建设网如何注册公司公众号
  • 手机网站页面制作网站怎么做快照
  • asp网站怎么仿站推广软件下载平台
  • 电子商务网站建设期末试题08答案互联网怎么做
  • 规范门户网站的建设和管理办法微信网站开发公司电话
  • 免费行情网站凡客的官网
  • 做网站运营的女生多吗海淀企业网站建设
  • 网站运行环境配置网站建设个一般需要花费多少钱
  • 广西平台网站建设报价wordpress 免费 企业 主题
  • 四川省建设厅职称查询网站辽宁省住房和城乡建设部网站
  • 公司网站后台登陆网站放到云服务器上怎么做
  • 济南 网站定制做网站购买域名
  • 代理分佣后台网站开发怎么用源码做网站视频
  • 天津网站建设招标wordpress七牛图片插件
  • 建设合同施工合同示范文本汕头市网络优化推广平台
  • 网站关键词修改老王搜索引擎入口
  • 那个网站做搬家推广比较好建设部网站办事大厅栏目
  • 做企业销售分析的网站广州网站设计建设
  • 建站流程wordpress怎么开伪静态
  • 服务器不是自己的做违法网站videopro wordpress
  • 北京建网站的公司哪个比较好网站开通告知书
  • 网站负责人 主体负责人黑龙江 建设监理协会网站