当前位置: 首页 > news >正文

招聘网站建设工作汇报建设通多少钱一年

招聘网站建设工作汇报,建设通多少钱一年,凯里州建公司简介,网站空间邮箱每年要续费吗模型输入无标签文本#xff08;Text without annotation#xff09;#xff0c;通过消耗大量计算资源预训练#xff08;Pre-train#xff09;得到一个可以读懂文本的模型#xff0c;在遇到有监督的任务是微调#xff08;Fine-tune#xff09;即可。 最具代表性是BERTText without annotation通过消耗大量计算资源预训练Pre-train得到一个可以读懂文本的模型在遇到有监督的任务是微调Fine-tune即可。 最具代表性是BERT预训练模型现在命名基本上是源自于动画片《芝麻街》。 芝麻街人物 经典的预训练模型 ELMo:Embeddings from Language ModelsBERT:Bidirectional Encoder Representations from Transformers华丽分割线命名逐渐开始离谱ERNIE:Enhanced Representation through Knowledge IntegrationGrover:Generating aRticles by Only Viewing mEtadaya Records 一、pre-train model 是什么 一预训练概念 预训练模型的概念并不是由BERT时才出现。 预训练的任务一般是实现 词语token - 词向量embedding vector, vector中包含token的语义比如我们语文中常学习的近义词语义相近那么要求其词向量也应该近似。 二多语义多语境 存在的问题同一个token就可以指代同一个vector。解决方法Word2vec、Glove... 但是语言有无穷尽的词语咱们现在就一直在创造新词语如 “雪糕刺客”、“栓Q”等等新兴词汇不断迭代更新一个新的词汇就要增加一个向量显然是不太OK的。 那么研究者就想到可以将词语再分英文可以拆分为字符FastText中文可以拆分为单个字或者将一个中文字看作一张图片输入CNN等模型可以让模型学习到字的构成。 但分解为单个character后面临的就是语义多意的问题“养只狗”、“单身狗”其中的“狗”都是狗但是我们知道两个“狗”其实是不同的然鹅他们又不能完全分开毕竟都用了一个字其实咱们是将考虑到其语义的。 考虑上下文后就诞生了语境词向量Contextualized Word Embedding输入模型的是整个句子模型会阅读上下文而不是仅仅考虑单个token考虑语境后得到一个词向量表示。【Encoder行为】 语境词向量的模型一般模型会由多层组成层结构常使用LSTM、Self-attention layers或者一些Tree-based model与文法相关。但Tree-base Model经过检验效果不突出在文法结构严谨解决数学公式时效果突出。 李老师列举了“苹果”在10个句子中的向量表示两两计算相似度得到一个10*10的混淆矩阵。可以明显观察到水果苹果和苹果公司两个苹果语义有所区别。 预训练模型训练参数逐渐增加网络结构逐渐复杂各个公司都争相发布“全球最大预训练模型”。 三穷人的BERT 预训练模型参数量大在训练时会消耗大量计算资源都是一些互联网公司在做像我们这些“穷人”没有那么大的GPU算力就会搞一些丐版BERT。 举例 Distill BERT [1910.01108] DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter (arxiv.org)​arxiv.org/abs/1910.01108 Tiny BERT [1909.10351v5] TinyBERT: Distilling BERT for Natural Language Understanding (arxiv.org)​arxiv.org/abs/1909.10351v5 Mobile BERT [2004.02984] MobileBERT: a Compact Task-Agnostic BERT for Resource-Limited Devices (arxiv.org)​arxiv.org/abs/2004.02984 ALBERT(相比于原版BERT, 12层不同参数ALBERT12层参数完全一致效果甚至超过原版BERT一点点) [1909.11942] ALBERT: A Lite BERT for Self-supervised Learning of Language Representations (arxiv.org)​arxiv.org/abs/1909.11942 模型压缩技术网络剪枝Network Pruning、知识蒸馏Knowledge Distillation、参数量化Parameter Quantization、架构设计Architecture Design 四架构设计Architecture Design 在该领域架构设计的目标意在处理长文本语句。 典型代表读者可以自行检索学习 Transformer-XL: Segment-Level Recurrence with State Reuse [1901.02860] Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context (arxiv.org)​arxiv.org/abs/1901.02860 Reformer [2001.04451] Reformer: The Efficient Transformer (arxiv.org)​arxiv.org/abs/2001.04451 Longformer [2004.05150] Longformer: The Long-Document Transformer (arxiv.org)​arxiv.org/abs/2004.05150 Reformer和Longformer意在降低Self-attention的复杂度。 二、怎么做 Fine-tune 预训练微调范式是现在的主流形式我们可以拿到大公司训练好的大模型只需要根据自己的下游任务加一些Layer就可以应用某一个具体的下游任务上。 预训练微调效果的实现需要预训练模型针对该问题进行针对性设计。 一Input Output 这里总结了NLP Tasks的常见输入输出。 Input one sentence: 直接丢进去。multiple sentences: Sentence1 SEP Sentence2, 句子分割。Ouput: one class: 加一个 CLS或者直接将所有Embedding表示接下游任务分类class for each tokencopy from input: 可以解决阅读理解问题QA。General Sequence: 用到Seq2Seq Model v1将预训练模型看作Encoder将下游任务模型看作Decoder。v2给出一个特别符号 SEP得到字符再输入到预训练模型让预训练模型encoder-decoder。 二How to fine-tune 如何微调也有两种一种是冻结预训练模型只微调下游任务对应的Task-specific部分另一种是连同预训练模型将整体网络结构进行参数微调预训练模型参数不是随机初始化可以有效避免过拟合。 Adaptor 考虑到模型巨大微调代价太大且消耗存储大。引入Apt只微调Pre-train Model中的一部分Apt。这样只需要存储Apt和Task specific. 此处举一个例子。 现在很多预训练模型中都是使用了Transformer的结构研究者在Transformer结构中插入Adaptor层通过训练微调Adaptor而不去修改其他已经训练好的参数。 三、Why Pre-train Models 研究者提出了GLUE指标用来衡量机器与人在不同语言任务上的表现随着深度学习的发展预训练模型的迭代更新现在预训练模型使得模型效果已经同人类水平相差无几。 四、Why Fine-tune? EMNLP19年刊发的一篇文章做了分析在网络模型上fine-tune与否Training Loss变化是不同的。 在有Fine-tune的情况下Training Loss可以很好的实现收敛而从头训练则会出现较大的波动。 同时考虑泛化能力因为基于预训练模型将Training Loss降低到很低有没有可能是过拟合导致的。海拔图可以表示如果海拔图中变化越陡峭模型泛化能力越差变化越平稳模型泛化能力越强。
http://www.w-s-a.com/news/759538/

相关文章:

  • 临沂网站排名外贸网站推广方法之一
  • 手机网站百度关键词排名查询吕梁网站制作吕梁安全
  • 做网站媒体wordpress管理员账号数据库添加
  • php如何自己做网站wordpress怎么修改编辑代码
  • 网站建网站建设公司WordPress互联
  • 泊头市网站建设价格wordpress导航菜单位置
  • 怎么设立网站赚广告费网页制作素材模板图片
  • 做班级网站的目的网站设计制作公司需要什么资质
  • 济南做网站哪家好财政网站平台建设不足
  • php网站建设招聘网站开发与设计论文
  • 上海 网站建设平台 补贴网站开发招标文件范本
  • 延安网站建设公司电话手机上那个网站做农产品推广比较好
  • 增城哪家网站建设好如何做网站实名认证
  • 常州地区做网站个人购物网站需要备案吗
  • 网站建设公司 跨界鱼科技专业做服务器的网站都有哪些
  • 欧洲网站服务器网站建设费用计入什么科目
  • 网站的色调苏州策划网站模板建站公司
  • 怎么看网站用的什么后台公路建设项目可行性研究报告编制办法哪个网站查最新版
  • 可以看的网站的浏览器有哪些专业APP客户端做网站
  • 如何做网站推广自己的产品推荐个网站好吗
  • 网站经营范围wordpress注入点
  • 学校网站开发协议夫妻网络网站建设
  • 福州网站seo推广优化微信商家小程序怎么弄
  • 免费网站推广工具在游戏网站做中介合法
  • 网站建设前的规划网站建设公司六安
  • 公司注册网站开发的行业表述南宁在百度上建网站
  • 创建企业网站国内网站用django做的
  • 云主机网站的空间在哪制作微网站的平台
  • 长沙做网站 青创互联wordpress4.4.1
  • 宜昌哪里有专业做网站的网站开发做什么的