当前位置: 首页 > news >正文

wordpress网站音乐播放器建网站签合同

wordpress网站音乐播放器,建网站签合同,怎么做自己的网页,清远做网站的有哪些目录 一、背景与动机 二、卖点与创新 三、几个问题 四、具体是如何做的 1、更多、优质的数据#xff0c;更大的模型 2、大数据量#xff0c;大模型使得zero-shot成为可能 3、使用prompt做下游任务 五、一些资料 一、背景与动机 基于 Transformer 解码器的 GPT-1 证明…目录 一、背景与动机 二、卖点与创新 三、几个问题 四、具体是如何做的 1、更多、优质的数据更大的模型 2、大数据量大模型使得zero-shot成为可能 3、使用prompt做下游任务 五、一些资料 一、背景与动机 基于 Transformer 解码器的 GPT-1 证明了在特定的自然语言理解任务 (如文档分类等) 的标注数据较少的情况下通过充分利用好大量的无标注的数据也能取得很强的性能。几个月之后基于 Transformer 编码器的 BERT 性能赶超了 GPT-1。GPT-2 希望构建更大的数据集和模型同时在 Zero-shot 的多任务学习场景中展示出不错的性能。 说白了还是为了解决模型泛化性问题。GPT1 的 pre-training supervised finetuning 的这一范式 虽然借助预训练这一步提升性能但是本质上还是需要有监督的 finetuning 才能使得模型执行下游任务。需要在下游任务上面有标注的数据。当我们只有很少量的可用数据 (即 Zero-shot 的情况下) 时就不再使用了。 二、卖点与创新 Zero-shot: GPT-2 本质上还是一个语言模型但是不一样的是它证明了语言模型可以在 Zero-shot 的情况下执行下游任务也就是说GPT-2 在做下游任务的时候可以无需任何标注的信息也无需任何参数或架构的修改。个人理解GPT-2本身做的是GPT-1中的预训练但是在一个更大的数据集上用更大的模型通过自监督的方式学到了任务无关的特性。 三、几个问题 为什么是zero-shot?Zero-Shot 情况下怎么让模型做下游任务? 四、具体是如何做的 1、更多、优质的数据更大的模型 数据WebText数据集一个包含了4500万个链接的文本数据集。经过重复数据删除和一些基于启发式的清理后它包含略多于800万个文档总文本容量为 40GB。 模型GPT-2 的模型在 GPT 的基础上做了一些改进如下 Layer Normalization 移动到了每个 Sub-Block 的输入部分在每个 Self-Attention 之后额外添加了一个 Layer Normalization最终顺序是LN, Self-Attention , LN。采用一种改进的初始化方法该方法考虑了残差路径与模型深度的累积。在初始化时将 residual layers 的权重按  的因子进行缩放其中    是 residual layers 的数量。字典大小设置为50257。无监督预训练可看到的上下文的 context 由512扩展为1024。Batch Size 大小调整为512。 2、大数据量大模型使得zero-shot成为可能。 GPT-2 方法的核心是语言建模。大规模无监督训练过程使得模型学习到了任务相关的信息。 在GPT-1中第一阶段是无监督预训练过程训练的方法是让 GPT 预测未来。具体而言假设我们无标记的语料库里面有一句话是  GPT 的模型参数是 Θ 作者设计了下面这个目标函数来最大化: 式中 是上下文窗口的大小。这个式子的含义是让模型看到前面  个词然后预测下一个词是什么再根据真实的下一个词来计算误差并使用随机梯度下降来训练。上式的本质是希望模型能够根据前  个词更好地预测下一个词。         这个式子其实做的事情是让下式尽量大 语言模型的这个式子可以表示为也就是在给定输入的情况下最大化已知输出的概率。 注意到GPT 之前在做这一步的时候是在自然的文本上面训练的。自然文本的特点是它里面有任务相关的信息但是呢这个信息通常是蕴含在文本里面的比如下面这段话 (来自 GPT-2 论文) Im not the cleverest man in the world, but like they say in French:  Je ne suis pas un imbecile [Im not a fool].In a now-deleted post from Aug. 16, Soheil Eid, Tory candidate in the riding of Joliette, wrote in French:  Mentez mentez, il en restera toujours quelque chose, which translates as,  Lie lie and something will always remain. I hate the word  perfume, Burr says. Its somewhat better in French:  parfum. If listened carefully at 29:55, a conversation can be heard between two guys in French:  -Comment on fait pour aller de lautre cot ́e? -Quel autre cot ́e?, which means  - How do you get to the other side? - What side?. If this sounds like a bit of a stretch, consider this question in French:  As-tu aller au cin ́ema?, or  Did you go to the movies?, which literally translates as Have-you to go to movies/theater?  Brevet Sans Garantie Du Gouvernement, translated to English:  Patented without government warranty. 上面这段文本中Mentez mentez, il en restera toujours quelque chose, 是法语句子Lie lie and something will always remain. 是英文句子而我们在无监督训练语言模型的时候并没有告诉模型要做 translation 的任务但是我们的文本中却有 which translates as 这样的字样。换句话说这一与具体下游任务任务相关的信息竟然可以通过具体下游任务任务无关的无监督预训练过程学习到。 3、使用prompt做下游任务 因为在 Zero-Shot 的任务设置下没有这些带有开始符和结束符的文本给模型训练了所以这时候做下游任务的时候也就不适合再给模型看开始符和结束符了。 大规模无监督训练过程学习到了任务相关的信息。作者认为比如下游任务是英文翻译法文那么如果模型在无监督预训练的过程中看过了引用的那一大段的文字 (这句话 Mentez mentez, il en restera toujours quelque chose, which translates as, Lie lie and something will always remain. 是训练的语料)那么模型就能够学会 (translate to french, english text, french text) 这样的下游任务。 也就是说原则上通过大量的语料训练语言建模能够学习到一系列下游任务而不需要明确的监督信息。为什么可以这么讲呢因为作者认为下游任务 (有监督训练) 可以视为预训练过程 (无监督训练) 的一个子集。无监督目标的全局最优解也是有监督训练的全局最优解。当预训练规模足够大时把无监督的任务训练好了有监督的下游任务即不再需要额外训练就是所谓的 Zero-Shot。 所以下面的问题就变成了在实践中我们如何能够优化无监督预训练过程以达到收敛。初步实验证实足够大的语言模型能够在无监督的预训练过程之后做下游任务但学习速度比显式监督方法慢得多。 那么最后一个问题就是具体怎么去做下游任务呢以英文翻译法文为例我们需要在下游任务时预先告诉模型 translate English to French即给模型一个提示 (Prompt)。     五、一些资料 LLM 系列超详细解读 (二)GPT-2GPT 在零样本多任务学习的探索 - 知乎本系列已授权极市平台未经允许不得二次转载如有需要请私信作者。专栏目录科技猛兽多模态大模型超详细解读 (目录)本文目录1 GPT-2GPT 在零样本多任务学习的探索 (来自 OpenAI) 1.1 背景和动机 1.2 大规模无…https://zhuanlan.zhihu.com/p/616975731
http://www.w-s-a.com/news/88452/

相关文章:

  • 手机网站建设万网山东省作风建设网站
  • 网站策划专员招聘50万县城做地方网站
  • 网站开发公司+重庆wordpress自定义搜索界面
  • 梅州南站学校官网
  • 网站变灰代码 所有浏览器企业邮箱域名怎么填写
  • 网站建设哪好旅行社网站模板
  • 网站开发发展存在的问题交换链接营销的经典案例
  • 烟台高端网站建设公司福田市网站建设推广
  • 做网站如何保证询盘数量智慧城市
  • 大连网站平台研发wordpress更改地址
  • 做标书要不要做网站南昌网站排名优化费用
  • 网站内容如何自动关联新浪微博万网域名信息
  • 网站出售网络推广服务费计入什么科目
  • 宁波咨询网站设计西安网站制作开发
  • 深圳市专注网站建设全网营销网络推广
  • 如何快速建设网站虚拟空间软件
  • 一个虚拟主机可以做几个网站免费软件下载中心
  • 美工培训网站中国建筑网官网手机版
  • 创建网站花钱吗谁能给个网址免费的
  • 宁波教育学会网站建设网站建设价格由什么决定
  • 北京定制网站价格wordpress上传pdf文档
  • 网站建设费税率dz论坛seo设置
  • 推销网站话术商业网站开发与设计
  • 金华网站建设哪个网站做欧洲旅行比较好
  • 东莞市住房和城乡建设局网站trswcm网站建设
  • 郑州做网站企业h5编辑器免费版
  • 加强公司窗口网站建设陕西省外省入陕建筑信息平台
  • 成都网站优化实战大连企业网站建设模板
  • 服务器硬件影响网站速度seo网站推广价格
  • 学院网站开发竞争对手分析买网站送域名