当前位置: 首页 > news >正文

做视频网站要准备哪些资料网站开发排行

做视频网站要准备哪些资料,网站开发排行,做网站需要走公司吗,如何制作一个动态的网站的登录详细步骤页面#x1f917; 宝子们可以戳 阅读原文 查看文中所有的外部链接哟#xff01; 引言 今天#xff0c;Meta 发布了 Llama 2#xff0c;其包含了一系列最先进的开放大语言模型#xff0c;我们很高兴能够将其全面集成入 Hugging Face#xff0c;并全力支持其发布。Llama 2 的社… 宝子们可以戳 阅读原文 查看文中所有的外部链接哟 引言 今天Meta 发布了 Llama 2其包含了一系列最先进的开放大语言模型我们很高兴能够将其全面集成入 Hugging Face并全力支持其发布。Llama 2 的社区许可证相当宽松且可商用。其代码、预训练模型和微调模型均于今天发布了。 通过与 Meta 合作我们已经顺利地完成了对 Llama 2 的集成你可以在 Hub 上找到 12 个开放模型 (3 个基础模型以及 3 个微调模型每个模型都有 2 种 checkpoint: 一个是 Meta 的原始 checkpoint一个是 transformers 格式的 checkpoint)。以下列出了 Hugging Face 支持 Llama 2 的主要工作: Llama 2 已入驻 Hub: 包括模型卡及相应的许可证。支持 Llama 2 的 transformers 库使用单 GPU 微调 Llama 2 小模型的示例Text Generation Inference (TGI)  已集成 Llama 2以实现快速高效的生产化推理推理终端 (Inference Endpoints) 已集成 Llama 2 目录 何以 Llama 2?演示推理 使用 transformers使用 TGI 和推理终端用 PEFT 微调其他资源总结 何以 Llama 2? Llama 2 引入了一系列预训练和微调 LLM参数量范围从 7B 到 70B (7B、13B、70B)。其预训练模型比 Llama 1 模型有了显著改进包括训练数据的总词元数增加了 40%、上下文长度更长 (4k 词元)以及利用了分组查询注意力机制来加速 70B 模型的推理 但最令人兴奋的还是其发布的微调模型 (Llama 2-Chat)该模型已使用 基于人类反馈的强化学习 (Reinforcement Learning from Human FeedbackRLHF)  技术针对对话场景进行了优化。在相当广泛的有用性和安全性测试基准中Llama 2-Chat 模型的表现优于大多数开放模型且其在人类评估中表现出与 ChatGPT 相当的性能。更多详情可参阅其 论文。 模型训练与微调工作流 图来自 Llama 2: Open Foundation and Fine-Tuned Chat Models 一文 如果你一直在等一个闭源聊天机器人的开源替代那你算是等着了Llama 2-Chat 将是你的最佳选择 模型许可证可否商用?预训练词元数排行榜得分Falcon-7BApache 2.0✅1,500B47.01MPT-7BApache 2.0✅1,000B48.7Llama-7BLlama 许可证❌1,000B49.71Llama-2-7BLlama 2 许可证✅2,000B54.32Llama-33BLlama 许可证❌1,500B*Llama-2-13BLlama 2 许可证✅2,000B58.67mpt-30BApache 2.0✅1,000B55.7Falcon-40BApache 2.0✅1,000B61.5Llama-65BLlama 许可证❌1,500B62.1Llama-2-70BLlama 2 许可证✅2,000B*Llama-2-70B-chat*Llama 2 许可证✅2,000B66.8 *目前我们正在对 Llama 2 70B (非聊天版) 进行评测。评测结果后续将更新至此表。 演示 你可以通过 这个空间 或下面的应用轻松试用 Llama 2 大模型 (700 亿参数): 它们背后都是基于 Hugging Face 的 TGI 框架该框架也支撑了 HuggingChat我们会在下文分享更多相关内容。 推理 本节我们主要介绍可用于对 Llama 2 模型进行推理的两种不同方法。在使用这些模型之前请确保你已在 Meta Llama 2 存储库页面申请了模型访问权限。 **注意: 请务必按照页面上的指示填写 Meta 官方表格。填完两个表格数小时后用户就可以访问模型存储库。 使用 transformers 从 transformers 4.31 版本开始HF 生态中的所有工具和机制都可以适用于 Llama 2如: 训练、推理脚本及其示例安全文件格式 (safetensors )与 bitsandbytes (4 比特量化) 和 PEFT 等工具帮助模型进行文本生成的辅助工具导出模型以进行部署的机制 你只需确保使用最新的 transformers 版本并登录你的 Hugging Face 帐户。 pip install transformers huggingface-cli login 下面是如何使用 transformers 进行推理的代码片段: from transformers import AutoTokenizer import transformers import torchmodel  meta-llama/Llama-2-7b-chat-hftokenizer  AutoTokenizer.from_pretrained(model) pipeline  transformers.pipeline(text-generation,modelmodel,torch_dtypetorch.float16,device_mapauto, )sequences  pipeline(I liked Breaking Bad and Band of Brothers. Do you have any recommendations of other shows I might like?\n,do_sampleTrue,top_k10,num_return_sequences1,eos_token_idtokenizer.eos_token_id,max_length200, ) for seq in sequences:print(fResult: {seq[generated_text]}) Result: I liked Breaking Bad and Band of Brothers. Do you have any recommendations of other shows I might like? Answer: Of course! If you enjoyed Breaking Bad and Band of Brothers, here are some other TV shows you might enjoy: 1. The Sopranos - This HBO series is a crime drama that explores the life of a New Jersey mob boss, Tony Soprano, as he navigates the criminal underworld and deals with personal and family issues. 2. The Wire - This HBO series is a gritty and realistic portrayal of the drug trade in Baltimore, exploring the impact of drugs on individuals, communities, and the criminal justice system. 3. Mad Men - Set in the 1960s, this AMC series follows the lives of advertising executives on Madison Avenue, expl 另外尽管模型本身的上下文长度 仅 4k 词元但你可以使用 transformers 支持的技术如旋转位置嵌入缩放 (rotary position embedding scaling) 进一步把它变长 使用 TGI 和推理终端 Text Generation Inference (TGI) 是 Hugging Face 开发的生产级推理容器可用于轻松部署大语言模型。它支持流式组批、流式输出、基于张量并行的多 GPU 快速推理并支持生产级的日志记录和跟踪等功能。 你可以在自己的基础设施上部署并尝试 TGI也可以直接使用 Hugging Face 的 推理终端。如果要用推理终端部署 Llama 2 模型请登录 模型页面 并单击 Deploy - Inference Endpoints 菜单。 要推理 7B 模型我们建议你选择 “GPU [medium] - 1x Nvidia A10G”。要推理 13B 模型我们建议你选择 “GPU [xlarge] - 1x Nvidia A100”。要推理 70B 模型我们建议你选择 “GPU [xxxlarge] - 8x Nvidia A100”。 注意: 如果你配额不够请发送邮件至 api-enterprisehuggingface.co 申请升级配额通过后你就可以访问 A100 了。 你还可以从我们的另一篇博文中了解更多有关 如何使用 Hugging Face 推理终端部署 LLM 的知识 , 文中包含了推理终端支持的超参以及如何使用其 Python 和 Javascript API 实现流式输出等信息。 用 PEFT 微调 训练 LLM 在技术和计算上都有一定的挑战。本节我们将介绍 Hugging Face 生态中有哪些工具可以帮助开发者在简单的硬件上高效训练 Llama 2我们还将展示如何在单张 NVIDIA T4 (16GB - Google Colab) 上微调 Llama 2 7B 模型。你可以通过 让 LLM 更可得 这篇博文了解更多信息。 我们构建了一个 脚本其中使用了 QLoRA 和 trl 中的 SFTTrainer 来对 Llama 2 进行指令微调。 下面的命令给出了在 timdettmers/openassistant-guanaco 数据集上微调 Llama 2 7B 的一个示例。该脚本可以通过 merge_and_push 参数将 LoRA 权重合并到模型权重中并将其保存为 safetensor 格式。这样我们就能使用 TGI 和推理终端部署微调后的模型。 首先安装 trl 包并下载脚本: pip install trl git clone https://github.com/lvwerra/trl 然后你就可以运行脚本了: python trl/examples/scripts/sft_trainer.py \--model_name meta-llama/Llama-2-7b-hf \--dataset_name timdettmers/openassistant-guanaco \--load_in_4bit \--use_peft \--batch_size 4 \--gradient_accumulation_steps 2 其他资源 论文Hub 上的模型Open LLM 排行榜Meta 提供的 Llama 2 模型使用大全 总结 Llama 2 的推出让我们非常兴奋后面我们会围绕它陆陆续续推出更多内容包括如何微调一个自己的模型如何在设备侧运行 Llama 2 小模型等敬请期待 宝子们可以戳 阅读原文 查看文中所有的外部链接哟 英文原文: https://hf.co/blog/llama2 原文作者: Philipp SchmidOmar SansevieroPedro CuencaLewis Tunstall 译者: Matrix Yao (姚伟峰)英特尔深度学习工程师工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。 审校/排版: zhongdongy (阿东)
http://www.w-s-a.com/news/962609/

相关文章:

  • 推荐网站网页湛江网站建设哪家优惠多
  • 传奇网站免费空间网店装修店面
  • 网站改版 重新收录湖南建筑信息一体化管理平台
  • 可以做直播卖产品的网站陕西省建设银行网站
  • 搭建网站的英语seo优化专员招聘
  • 做网站深紫色搭配什么颜色网站的在线支付怎么做
  • 中国最大网站建设公司长沙专业做网站公司哪家好
  • 金峰辉网站建设菏泽财富中心网站建设
  • 怎么做网站站长视频企业网站开发意义
  • 网站创建多少钱商标自助查询系统官网
  • 免费做App和网站的平台广州做网站推广的公司
  • 衡水做网站推广的公司wordpress相册滑动
  • 不用域名也可以做网站公司网站建设制作难么
  • 学做网站培训机构wordpress 图片拉伸
  • 成都捕鱼网站建设wordpress自定义文章类别
  • wordpress网站怎么加速湖北网站建设企业
  • 迁安做网站中的cms开发南平网站建设公司
  • 肥西县住房和城乡建设局网站代驾系统定制开发
  • 网站建设明细报价表 服务器qq是哪家公司的产品
  • html链接网站模板wordpress怎么调用简码
  • 网站域名怎么查简述网站推广的五要素
  • 咸宁网站设计公司app安装下载
  • 丝网外贸做哪些网站最优的赣州网站建设
  • 如何做网站不被查网站开发工程师岗位说明书
  • 做网站需要vps吗网站建设后怎样发信息
  • 网站建立风格二手交易网站开发可参考文献
  • 成都微信网站开发优化大师优化项目有哪些
  • 哪个网站做自考题目免费郑州网站建设公司qq
  • 地方性的网站有前途顺的网络做网站好不好
  • 学校申请建设网站的原因不要网站域名