当前位置: 首页 > news >正文

php网站链接支付宝搜索推广策略制定

php网站链接支付宝,搜索推广策略制定,网络推广主要用哪些软件,wordpress问卷填报主题本文将介绍在Lit-GPT上使用LoRA微调LLaMA模型#xff0c;并介绍如何自定义数据集进行微调其他开源LLM 监督指令微调#xff08;Supervised Instruction Finetuning#xff09; 什么是监督指令微调#xff1f;为什么关注它#xff1f; 目前大部分LLM都是decoder-only并介绍如何自定义数据集进行微调其他开源LLM 监督指令微调Supervised Instruction Finetuning 什么是监督指令微调为什么关注它 目前大部分LLM都是decoder-only通常是续写任务有时候未必符合用户的需求SFT是通过构造指令输入和期待的输出数据微调LLM让LLM根据输入的指令输出期待的内容这样微调好的LLM会输出更符合用户需求或者特点任务 SFT数据格式一般如下所示 Instruction text Input text (optional) Output text Input是可选的下面是SFT数据格式的示例 SFT的微调和Pre-training是一样的也是根据上文预测下一个token如下图所示 SFT数据集如何生成 SFT数据集构建通常有两种方法人工标注和使用LLM比如GPT-4来生成的人工标注对于构建垂直领域比较合适可以减少有偏数据但是成本略高使用LLM生成可以在短时间内生成大量数据。 SFT数据集构建以及SFT微调Pipeline如下图所示 LLM生成SFT数据方法总结 Self-Instruct Self-Instructhttps://arxiv.org/abs/2212.10560一个通过预训练语言模型自己引导自己来提高的指令遵循能力的框架。 Self-Instruct有如下四个阶段 步骤1作者从 175个种子任务中随机抽取 8 条自然语言指令作为示例并提示InstructGPT生成更多的任务指令。 步骤2作者确定步骤1中生成的指令是否是一个分类任务。如果是他们要求 InstructGPT 根据给定的指令为输出生成所有可能的选项并随机选择特定的输出类别提示 InstructGPT 生成相应的“输入”内容。对于不属于分类任务的指令应该有无数的“输出”选项。作者提出了“输入优先”策略首先提示 InstructGPT根据给定的“指令”生成“输入”然后根据“指令”和生成的“输入”生成“输出”。 步骤3基于第 2 步的结果作者使用 InstructGPT 生成相应指令任务的“输入”和“输出”采用“输出优先”或“输入优先”的策略。 步骤4作者对生成的指令任务进行了后处理(例如过滤类似指令去除输入输出的重复数据)最终得到52K条英文指令 完整的Self-Instruct流程如下图所示 Alpaca datasethttps://github.com/gururise/AlpacaDataCleaned的52K数据就是采用该方法生成的。 Backtranslation 回译在传统的机器学习中是一种数据增强方法比如从中文翻译成英文再从英文翻译会中文这样生成的中文与原来的中文在语义上是一致的但是文本不同然而SFT数据生成的回译https://arxiv.org/abs/2308.06259则是通过输出来生成指令具体步骤如下图所示 LIMA LIMA来自论文《The LIMA: Less Is More for Alignment》LIMA是在LLaMA V1 65B模型上使用1k高质量数据进行微调获得的性能如下 在Lit-GPT库上微调LLM Lit-GPT支持的模型如下表所示 Model and usageReferenceMeta AI Llama 2Touvron et al. 2023Stability AI FreeWilly2Stability AI 2023Stability AI StableCodeStability AI 2023TII UAE FalconTII 2023OpenLM Research OpenLLaMAGeng Liu 2023LMSYS VicunaLi et al. 2023LMSYS LongChatLongChat Team 2023Together RedPajama-INCITETogether 2023EleutherAI PythiaBiderman et al. 2023StabilityAI StableLMStability AI 2023PlatypusLee, Hunter, and Ruiz 2023NousResearch Nous-HermesOrg pageMeta AI Code LlamaRozière et al. 2023 下面以LLaMA2-7B为例说明在 上进行微调的步骤首先需要clone  Lit-GPT仓库微调步骤如下 1下载、准备模型 export HF_TOKENyour_tokenpython scripts/download.py \ --repo_id meta-llama/Llama-2-7b-hf​​​​​ python scripts/convert_hf_checkpoint.py \ --checkpoint_dir meta-llama/Llama-2-7b-hf 2准备微调数据​​​​​​​ python scripts/prepare_lima.py \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf 3使用LoRA进行微调​​​​​​​ python finetune/lora.py \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf \ --data_dir data/lima Tips 官方建议数据的tokens控制在2048之内可以减少GPU显存消耗对应的代码也需要增加参数--max_seq_length 2048​​​​​​​ python scripts/prepare_lima.py \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf \ --max_seq_length 2048 或者也可以修改 finetune/lora.py文件中的参数change override_max_seq_length None调整为 override_max_seq_length 2048  对于LIMA模型的1k数据进行微调需要调整max_iters1000 Lit-GPT上支持的数据集 Lit-GPT定义客户化数据集 加载自定义数据集大致需要两步首先需要准备三列CSV数据示例如下 第一步执行如下脚本​​​​​​​ python scripts/prepare_csv.py \ --csv_dir MyDataset.csv \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf 第二步与上述LIMA类似是执行scripts/prepare_dataset.py脚本 参考文献 [1] https://lightning.ai/pages/community/tutorial/optimizing-llms-from-a-dataset-perspective/
http://www.w-s-a.com/news/150213/

相关文章:

  • 男女做暖暖的网站大全深圳平台网站建设外包
  • 凯里展示型网站设计抖音代运营收费详细价格
  • 外包网站会自己做原型吗网站制作怎样盈利
  • 为什么在百度搜不到我的网站电商网站开发过程
  • 什么是网站反链网页设计页面链接
  • 佛山企业网站制作韩国seocaso
  • 微信公司网站vue做社区网站
  • 蒙阴网站优化五核网站建设
  • 企业微商城网站建设wordpress新闻是哪个表
  • 重庆网站开发培训机构电商网站创办过程
  • 企业建网站得多少钱长沙财优化公司
  • 网站开发api平台扒完网站代码之后怎么做模板
  • PHP网站建设选择哪家好动画设计师月薪多少
  • 网站如何做市场推广网站开发主要步骤
  • 浏览器正能量网站网页文章导入wordpress
  • 江西中国建设银行网站首页永久免费自助建网站
  • 创建自己网站的步骤吸引人的微信软文
  • 网站建设与网页设计论述题软件开发公司在哪里
  • 二级网站建设方案模板亚马逊网站建设案例
  • 网站开发兼职团队门户网站如何制作
  • 高州市网站建设开发区招聘信息
  • 上海专业网站制作设计公司企业邮箱怎样注册
  • 网站建设在商标第几类网站建设 设计创意
  • 做一网站APP多少钱重庆中色十二冶金建设有限公司网站
  • 网上做效果图网站有哪些软件徐州泉山区建设局网站
  • 凯里网站制作网站篡改搜索引擎js
  • 如何使用凡科建设网站武安城乡建设网站
  • 网站建设网站及上传wordpress火车头发布
  • 有没有做网站的团队电脑版传奇网站
  • 建立企业网站公司医疗创意小产品设计