当前位置: 首页 > news >正文

网站改域名如何做百度优化铜仁市网站建设情况

网站改域名如何做百度优化,铜仁市网站建设情况,discuz,企业网站使用不规范地图如何处罚GPT系列 GPT#xff08;Generative Pre-trained Transformer#xff09;是一系列基于Transformer架构的预训练语言模型#xff0c;由OpenAI开发。以下是GPT系列的主要模型#xff1a; GPT#xff1a;GPT-1是于2018年发布的第一个版本#xff0c;它使用了12个Transformer…GPT系列 GPTGenerative Pre-trained Transformer是一系列基于Transformer架构的预训练语言模型由OpenAI开发。以下是GPT系列的主要模型 GPTGPT-1是于2018年发布的第一个版本它使用了12个Transformer编码器层和1.5亿个参数。GPT-1的训练数据包括了互联网上的大量文本。 GPT-2GPT-2于2019年发布是GPT系列的第二个版本。它比GPT-1更大更强大使用了24个Transformer编码器层和1.5亿到15亿个参数之间的不同配置。GPT-2在生成文本方面表现出色但由于担心滥用风险OpenAI最初选择限制了其训练模型的发布。 GPT-3GPT-3于2020年发布是GPT系列的第三个版本也是目前最先进和最强大的版本。它采用了1750亿个参数拥有1750亿个可调节的权重。GPT-3在自然语言处理NLP任务中表现出色可以生成连贯的文本、回答问题、进行对话等。 GPT-3.5GPT-3.5是在GPT-3基础上进行微调和改进的一个变种它是对GPT-3的进一步优化和性能改进。 GPT系列的模型在自然语言处理领域取得了巨大的成功并在多个任务上展示出了强大的生成和理解能力。它们被广泛用于文本生成、对话系统、机器翻译、摘要生成等各种应用中对自然语言处理和人工智能领域的发展有着重要的影响。 GPT系列是当前自然语言处理领域下最流行也是商业化效果最好的自然语言大模型并且他的论文也对NLP的领域产生巨大影响GPT首次将预训练-微调模型真正带入NLP领域同时提出了多种具有前瞻性的训练方法被后来的BERT等有重大影响的NLP论文所借鉴。 目录 GPT系列前言问题的提出介绍方法模型规模GPT-3模型和架构训练数据训练过程评估 总结 前言 在GPT-2论文中谷歌团队致力于将GPT应用于Zero-shot领域当然取得了不错的结果但是这种结果离真正能在市场上应用还差得远所以在GPT-3这篇论文中谷歌团队又将目光转回Few-shot领域中来论文标题“Language Models are Few-Shot Learners”也写明了GPT-3不再追求极致的零样本即在一个子任务上完全不给语言模型任何样例转而将样本数量控制在较小范围。 问题的提出 近年来NLP系统中出现了一种趋势即以越来越灵活和任务无关的方式在下游传输中使用预先训练好的语言表示。首先使用词向量学习单层表示并将其反馈给任务特定的体系结构然后使用具有多层表示和上下文状态的RNN形成更强的表示尽管仍适用于任务特定的体系结构最近经过预训练的递归或Transformer语言模型已经过直接微调完全消除了对任务特定架构的需求。 这最后一种范式在许多具有挑战性的NLP任务上取得了实质性进展如阅读理解、问答、文本蕴涵和其他许多任务并在新的架构和算法基础上不断进步。然而这种方法的一个主要限制是虽然体系结构与任务无关但仍然需要特定于任务的数据集和特定于任务的微调要在所需任务上实现强大的性能通常需要对特定于该任务的数千到几十万个示例的数据集进行微调。出于几个原因消除这一限制是可取的。 首先从实践的角度来看每项新任务都需要一个大型的标记示例数据集这限制了语言模型的适用性。存在着非常广泛的可能有用的语言任务包括从纠正语法到生成抽象概念的示例再到评论短篇小说的任何内容。对于许多此类任务很难收集大型有监督的训练数据集尤其是在每个新任务都必须重复该过程的情况下。 其次随着模型的表达能力和训练分布的狭窄利用训练数据中虚假相关性的潜力从根本上增加。这可能会给预训练微调范式带来问题在这种范式中模型设计得很大以便在预训练期间吸收信息但随后会在非常狭窄的任务分布上进行微调。有证据表明在这种范式下实现的泛化可能很差因为该模型对训练分布过于具体并且在其之外没有很好的泛化。因此微调模型在特定基准上的性能即使名义上处于人的水平也可能夸大基本任务的实际性能。 第三人类学习大多数语言任务不需要大型有监督的数据集——自然语言中的简短指令例如“请告诉我这句话描述的是快乐还是悲伤”或至多少量的演示例如“这里有两个勇敢的人的例子请给出第三个勇敢的例子”通常足以让人类执行新任务至少达到合理的能力水平。除了指出我们当前NLP技术的概念局限性外这种适应性还具有实际优势——它允许人类无缝地混合在一起或在许多任务和技能之间切换例如在长时间的对话中执行加法。为了广泛使用希望有一天我们的NLP系统具有相同的流动性和通用性。 介绍 近年来transformer语言模型的容量大幅增加从1亿个参数增加到3亿个参数增加到15亿个参数增加到80亿个参数110亿个参数最后增加到170亿个参数。每一次增加都带来了文本合成和/或下游NLP任务的改善有证据表明log损失与许多下游任务密切相关随着规模的增加呈现平稳的改善趋势。由于情境上下文学习涉及在模型参数范围内吸收许多技能和任务因此情境学习能力可能会随着规模的扩大而表现出类似的强劲增长。 在本文中论文通过训练一个1750亿参数的自回归语言模型Transformer Decoder称之为GPT-3并测量其上下文学习能力来检验这一假设。具体而言论文评估了二十多个NLP数据集上的GPT-3以及一些旨在测试对训练集中不可能直接包含的任务的快速适应的新任务。对于每项任务论文在3种条件下评估GPT-3 a“few-shot learning”或在上下文学习中允许尽可能多的演示以适应模型的上下文窗口通常为10到100 b“one-shot learning”只允许一次演示 c“zero-shot learning”不允许演示仅向模型提供自然语言说明。 GPT-3原则上也可以在传统的微调设置中进行评估但论文将此留给未来的工作。 上图说明了论文研究的条件并显示了需要模型从单词中删除无关符号的简单任务的few-shot学习。通过添加自然语言任务描述和模型上下文中的示例数量模型性能得到了提高。few-shot学习也随着模型大小的增加而显著提高。虽然这种情况下的结果特别引人注目但在论文研究的大多数任务中模型大小和上下文中的示例数量的总体趋势都适用。论文强调这些“学习”曲线不涉及梯度更新或微调只是增加了作为条件作用的演示次数。 方法 论文的基本预训练方法包括模型、数据和训练与GPT-2中描述的过程类似相对简单地扩大了模型大小、数据集大小和多样性以及训练长度。我们对情境学习的使用也与 GPT-2类似但在这项工作中我们系统地探索了情境中学习的不同设置。因此我们首先明确定义和对比我们将评估 GPT-3 或原则上评估 GPT-3 的不同设置。这些设置可以被视为取决于它们倾向于依赖多少特定于任务的数据。 图中我们可以看出在微调时GPT-3不需要进行梯度的更新这也是GPT-3的卖点之一 微调(FT)是近年来最常见的方法它涉及通过对特定于所需任务的监督数据集进行训练来更新预训练模型的权重。通常使用数千到数十万个带标签的示例。微调的主要优点是在许多基准测试中表现出色。主要缺点是每个任务都需要一个新的大型数据集分布外泛化能力差的可能性以及利用训练数据的虚假特征的可能性这可能会导致与人类表现进行不公平的比较。在这项工作中我们没有对 GPT-3 进行微调因为我们的重点是与任务无关的性能但 GPT-3 原则上可以进行微调这是未来工作的一个有希望的方向。Few-Shot (FS)Few-Shot (FS) 是我们在这项工作中使用的术语指的是这样的设置在推理时为模型提供一些任务演示作为条件但不允许权重更新。如上图所示对于典型的数据集示例具有上下文和所需的完成例如英语句子和法语翻译通过给出 K 个上下文和完成的示例然后提供一个最终示例可以进行少样本工作上下文模型有望提供完成。我们通常将 K 设置在 10 到 100 的范围内因为这是模型上下文窗口中可以容纳的示例数量 ( n c t x n_{ctx} nctx​ 2048)。 Few-shot 的主要优点是大大减少了对特定任务数据的需求并降低了从大而窄的微调数据集中学习过于狭窄的分布的潜力。主要缺点是迄今为止这种方法的结果比最先进的微调模型要差得多。此外仍然需要少量任务特定数据。正如名称所示此处描述的语言模型的小样本学习与 ML 中其他上下文中使用的小样本学习相关 - 两者都涉及基于任务的广泛分布的学习在这种情况隐含在预训练数据中然后快速适应新任务。One-Shot (1S)One-Shot (1S) 与 Few-shot 相同只是只允许进行一次演示此外还需要对任务进行自然语言描述区分 One-shot 和 Few-shot 的原因零样本上图的优点是它最接近某些任务与人类沟通的方式。例如当要求人类在人类工作者服务例如 Mechanical Turk上生成数据集时通常会给出一个任务演示。相比之下如果不给出示例有时很难传达任务的内容或格式。Zero-Shot (0S)Zero-Shot与One-Shot相同只是不允许进行演示并且模型仅被给予描述任务的自然语言指令。这种方法提供了最大的便利性、鲁棒性的潜力并避免了虚假相关性除非它们在预训练数据的大型语料库中广泛出现但也是最具挑战性的设置。在某些情况下如果没有先前的示例人类甚至可能很难理解任务的格式因此这种设置在某些情况下“相当困难”。例如如果有人被要求“制作一个 200m 短跑的世界纪录表”这个请求可能会含糊不清因为可能不清楚该表应该具有什么格式或应该包含什么即使仔细考虑澄清、准确理解想要的东西可能很困难。尽管如此至少对于某些设置来说零样本最接近人类执行任务的方式 。 模型规模 GPT-3模型和架构 论文使用与 GPT-2相同的模型和架​​构包括其中描述的修改后的初始化、预归一化和可逆标记化不同之处在于我们在Transformer类似于Sparse Transformer。为了研究 ML 性能对模型大小的依赖性我们训练了 8 种不同大小的模型范围从 1.25 亿个参数到 1750 亿个参数三个数量级最后一个是我们称为 GPT-3 的模型。之前的工作表明如果有足够的训练数据损失函数的缩放应该近似为大小函数的平滑幂律许多不同大小的训练模型使我们能够测试这个假设的验证损失和下游语言任务。上图显示了论文 8 个模型的尺寸和架构。这里 n p a r a m s n_{params} nparams​ 是可训练参数的总数 n l a y e r s n_{layers} nlayers​ 是总层数 d m o d e l d_{model} dmodel​ 是每个瓶颈层中的单元数我们的前馈层始终是瓶颈层大小的四倍 d f f 4 ∗ d m o d e l d_{ff} 4 * d_{model} dff​4∗dmodel​ d h e a d d_{head} dhead​ 是每个注意力头的维度。所有模型都使用 n c t x 2048 n_{ctx} 2048 nctx​2048 个token的上下文窗口。我们沿着深度和宽度维度跨 GPU 划分模型以最大程度地减少节点之间的数据传输。每个模型的精确架构参数是根据计算效率和跨 GPU 模型布局的负载平衡来选择的。之前的工作 表明验证损失在相当宽的范围内对这些参数并不强烈敏感。 原论文就写了这么少的内容并没有说清楚具体的模型细节 训练数据 语言模型的数据集迅速扩展最终形成了包含近万亿个单词的 Common Crawl 数据集。这种大小的数据集足以训练我们最大的模型而无需对同一序列进行两次更新。然而我们发现未经过滤或轻度过滤的 Common Crawl 版本往往比经过精心策划的数据集质量较低。因此我们采取了 3 个步骤来提高数据集的平均质量 1我们根据与一系列高质量参考语料库的相似性下载并过滤 CommonCrawl 的版本2我们在文档级别执行模糊重复数据删除在数据集内部和数据集之间以防止冗余并保持我们保留的验证集的完整性作为过度拟合的准确度量 3我们还在训练组合中添加了已知的高质量参考语料库以增强 CommonCrawl 并提高其多样性。 最终的数据集如下 我们可以看出虽然Common Crawl数据集的大小是其他数据集之和的数倍但是每个Batch只采样百分之60这种做法既能保证数据集足够大来训练这个175B的大模型又能保证高质量数据在总数据集比重较大保证模型的准确性。 训练过程 较大的模型通常可以使用较大的批量大小但需要较小的学习率。我们在训练期间测量梯度噪声尺度并用它来指导我们选择批量大小。为了在不耗尽内存的情况下训练更大的模型我们在每个矩阵乘法中混合使用模型并行性并在网络各层之间使用模型并行性。所有模型均在 Microsoft 提供的高带宽集群的 V100 GPU 上进行训练。 评估 对于少样本学习我们通过从该任务的训练集中随机抽取 K 个示例作为条件来评估评估集中的每个示例根据任务以 1 或 2 个换行符分隔。对于 LAMBADA 和 Storycloze没有可用的监督训练集因此我们从验证集中抽取条件示例并在测试集上进行评估。对于 Winograd原始版本不是 SuperGLUE 版本只有一个数据集因此我们直接从中绘制条件示例。 K 可以是从 0 到模型上下文窗口允许的最大数量的任何值对于所有模型来说 n c t x n_{ctx} nctx​ 2048通常适合 10 到 100 个示例。 K 值越大越好但并不总是越好因此当有单独的验证集和测试集可用时我们会在验证集上尝试几个 K 值然后在测试集上运行最佳值。对于某些任务除了或对于 K 0而不是演示之外我们还使用自然语言提示。 对于涉及从多个选项多项选择中选择一个正确完成的任务论文提供了 K 个上下文示例加上正确完成然后仅提供一个上下文示例并比较每个完成的 LM 可能性。对于大多数任务我们比较每个标记的可能性对长度进行标准化但是在少数数据集ARC、OpenBookQA 和 RACE上我们通过对每个标记的无条件概率进行标准化在开发集上衡量获得了额外的好处完成通过计算 P ( c o m p l e t i o n ∣ c o n t e x t ) P ( c o m p l e t i o n ∣ a n s w e r c o n t e x t ) \frac{P (completion|context)}{ P (completion|answer context) } P(completion∣answercontext)P(completion∣context)​其中答案上下文是字符串“Answer:”或“A:”用于提示完成应该是答案但在其他方面是通用的。 在涉及二元分类的任务中我们为选项赋予更具语义意义的名称例如“True”或“False”而不是 0 或 1然后将任务视为多项选择。 总结 论文提出了一个 1750 亿个参数的语言模型该模型在零样本、单样本和少样本设置中的许多 NLP 任务和基准测试中显示出强大的性能在某些情况下几乎与 4 个最先进的性能相匹配微调系统以及在动态定义的任务中生成高质量的样本和强大的定性性能。我们在不使用微调的情况下记录了大致可预测的性能扩展趋势。论文还讨论了此类模型的社会影响。尽管存在许多限制和弱点但这些结果表明非常大的语言模型可能是开发适应性强的通用语言系统的重要组成部分。 谷歌团队似乎不愿透露GPT系列模型的细节内容GPT系列论文花了大量的时间来展示GPT模型在不同任务上的实验结果在模型方法和训练方法上一带而过是一篇带有“炫技性”的论文并不是一篇适合读者去学习自然语言大模型的论文。
http://www.w-s-a.com/news/728622/

相关文章:

  • 网站服务器ipteahouse wordpress主题
  • 深州市住房保障和城乡建设局网站做网站公司叫什么
  • 织梦网站转跳手机站注册公司代理记账费用
  • wordpress建站Pdf亚马逊aws在线观看
  • 做网站的外包公司有哪些WordPress调用json数据
  • 做网站网站怎么赚钱网站的建设及维护报告
  • 可以做效果图的网站东莞网站优化什么方法
  • 网站和软件的区别怎么做招生网站
  • 雄安免费网站建设电话如何做网站推广 求指点
  • 十大免费cad网站入口软件北京做网站建设价格
  • 建设一个公司网站要具备什么网页制作的专业
  • 东莞seo建站排名全包网站
  • 网站建设的基本步骤有哪些软件商店下载官方
  • 网站建设开发报告论文hao123上网从这里开始官方
  • 阿里云建网站费用徐州房产网
  • 网站统计分析平台做企业礼品的网站
  • 做可视化图表的网站wordpress批量导入tag
  • txt怎么做网站网站的链接结构包括
  • 适合平面设计师的网站网络营销专员的就业前景
  • 好订单网服装加工接单谷歌seo网站推广怎么做
  • seo泛站群外贸网站建设团队
  • 网站免费维护建立网站国家城乡建设部投诉网站
  • 企业网站必须备案吗wordpress导入数据库依然无法链接
  • 浅谈高校网站群的建设网站不支持m.域名
  • 和平网站建设公司做实验教学视频的网站
  • 音乐网站源码带手机版WordPress菜单调用不出
  • 昆明网站设计都需要设计什么网络推广岗位职责和任职要求
  • 国外公司网站模板网站建设公司选择意见书
  • 如何创建一个网站卖东西郑州 网站建设公司
  • 石景山郑州阳网站建设南京网站搜索引擎优化