当前位置: 首页 > news >正文

网站制作完成后为了长沙php的网站建设公司

网站制作完成后为了,长沙php的网站建设公司,垫江网站开发djrckj,三只松鼠商务网站建设目的项目背景 甲方提供一台三卡4080显卡 需要进行qwen2.5 7b Instruct模型进行微调。以下为整体设计。 要使用 LLaMA-Factory 对 Qwen2.5 7B Instruct模型 进行 LoRA#xff08;Low-Rank Adapters#xff09;微调#xff0c;流程与之前提到的 Qwen2 7B Instruct 模型类似。LoRA …项目背景 甲方提供一台三卡4080显卡 需要进行qwen2.5 7b Instruct模型进行微调。以下为整体设计。 要使用 LLaMA-Factory 对 Qwen2.5 7B Instruct模型 进行 LoRALow-Rank Adapters微调流程与之前提到的 Qwen2 7B Instruct 模型类似。LoRA 微调是一种高效的微调方法通过低秩适配器层来调整预训练模型的权重而不是全量训练整个模型。 环境准备 确保你已经安装了必要的依赖包括 LLaMA-Factory、DeepSpeed 和 transformers 库。如果尚未安装可以使用以下命令安装 git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e .[torch,metrics]如果使用量化 gptq 需要安装以下环境 pip install auto_gptq optimum如果使用量化 awq 需要安装以下环境 pip install autoawq获取 Qwen2.5 7B Instruct 模型 权重 确保你已经获取了 Qwen2.5 7B Instruct 模型 的预训练权重。如果没有你可以从 Hugging Face 或其他平台上下载该模型或者根据需要联系模型发布者获取相应的模型文件。这里采用魔搭社区下载qwen2.5 7b Instruct模型。 原模型 #模型下载 from modelscope import snapshot_download model_dir snapshot_download(Qwen/Qwen2.5-7B-Instruct) int 8 量化模型 #模型下载 from modelscope import snapshot_download model_dir snapshot_download(Qwen/Qwen2.5-7B-Instruct-GPTQ-Int8) int 4 量化模型 #模型下载 from modelscope import snapshot_download model_dir snapshot_download(Qwen/Qwen2.5-7B-Instruct-AWQ) 3配置 LoRA 微调 在 LLaMA-Factory 中LoRA 微调通常需要对模型进行一些配置以下是实现 LoRA 微调的关键步骤 编辑llama factory训练参数 新建llama factory 训练配置文件 examples/train_lora/qwen2.5_7b_lora_sft.yaml加载 Qwen2.5 7B Instruct 模型 和 数据集并设置 LoRA 训练范围。 ### model model_name_or_path: Qwen/Qwen2.5-7B-Instruct-AWQ### method stage: sft do_train: true finetuning_type: lora lora_target: all### dataset dataset: identity,alpaca_en_demo template: llama3 cutoff_len: 2048 max_samples: 1000 overwrite_cache: true preprocessing_num_workers: 16### output output_dir: saves/qwen2.5-7b/lora/sft logging_steps: 10 save_steps: 500 plot_loss: true overwrite_output_dir: true### train per_device_train_batch_size: 1 gradient_accumulation_steps: 2 learning_rate: 1.0e-4 num_train_epochs: 3.0 lr_scheduler_type: cosine warmup_ratio: 0.1 bf16: true ddp_timeout: 180000000### eval val_size: 0.1 per_device_eval_batch_size: 1 eval_strategy: steps eval_steps: 500 这段配置文件主要用于 LoRA 微调 Qwen2.5-7B-Instruct-AWQ 模型并且进行了具体的参数设置。每个部分都涉及模型、方法、数据集、输出、训练、评估等配置。以下是对每个部分的详细解读 模型配置 (model) model_name_or_path: Qwen/Qwen2.5-7B-Instruct-AWQmodel_name_or_path指定了要微调的预训练模型的名称或路径。在这里它指向了 Qwen2.5-7B-Instruct-AWQ 模型。你可以通过指定这个模型的路径或者从 Hugging Face 之类的模型库中加载该模型。 方法配置 (method) stage: sft do_train: true finetuning_type: lora lora_target: allstage: sft表示当前的训练阶段是 SFTSupervised Fine-Tuning 阶段意味着模型将在特定的标注数据集上进行监督学习。do_train: true表示进行训练。finetuning_type: lora指定了微调的类型是 LoRALow-Rank Adapter意味着通过低秩适配器层来进行微调而不是全量训练整个模型。lora_target: all表示在模型的所有层上应用 LoRA 微调。你也可以选择特定的层如 attention 或 ffn但这里设置为 all意味着所有的层都会应用 LoRA。 数据集配置 (dataset) dataset: identity,alpaca_en_demo template: qwen cutoff_len: 2048 max_samples: 1000 overwrite_cache: true preprocessing_num_workers: 16dataset: identity,alpaca_en_demo指定了要使用的数据集这里列出了两个数据集identity 和 alpaca_en_demo。你需要确保这两个数据集已经准备好并且路径正确。identity 可能是一个自定义数据集alpaca_en_demo 是一个英文数据集。template: qwen指定了数据集的模板这个模板通常用于数据预处理过程它可能包括对文本的格式化或特殊的标注。cutoff_len: 2048指定了最大输入长度单位为token。如果输入文本超过这个长度它将会被截断。这个长度与模型的最大接受长度有关通常需要根据具体模型的设置调整。max_samples: 1000指定了使用的数据集样本的最大数量这里设置为1000意味着将只使用最多1000个样本进行训练。overwrite_cache: true如果缓存目录存在则覆盖缓存。这个选项通常用于确保每次训练时使用最新的数据。preprocessing_num_workers: 16指定了数据预处理时使用的工作线程数16个线程可以加速数据加载和预处理过程。 输出配置 (output) output_dir: saves/qwen2-7b/lora/sft logging_steps: 10 save_steps: 500 plot_loss: true overwrite_output_dir: trueoutput_dir: saves/qwen2-7b/lora/sft指定了训练过程中保存模型和日志的输出目录。在此路径下将保存微调后的模型、检查点等文件。logging_steps: 10每10步记录一次日志。save_steps: 500每500步保存一次模型检查点。这样你可以在训练过程中定期保存模型的状态避免意外中断时丢失训练进度。plot_loss: true在训练过程中启用损失值可视化例如通过TensorBoard或其他工具。这有助于监控训练过程中模型的表现。overwrite_output_dir: true如果输出目录已存在则覆盖它。确保训练过程中不会因为目录存在而出现错误。 训练配置 (train) per_device_train_batch_size: 1 gradient_accumulation_steps: 2 learning_rate: 1.0e-4 num_train_epochs: 3.0 lr_scheduler_type: cosine warmup_ratio: 0.1 bf16: true ddp_timeout: 180000000per_device_train_batch_size: 1每个设备的训练批次大小设置为1。这通常与GPU的显存大小相关如果显存较小批次大小可以设置为1。gradient_accumulation_steps: 2梯度累积的步数。如果批次大小设置为1但需要更多的梯度累积可以通过此设置实现。learning_rate: 1.0e-4设置学习率为 0.0001这是训练时调整权重的步长。num_train_epochs: 3.0训练的总周期数这里设置为3轮。通常需要根据训练集大小和收敛速度来调整这个值。lr_scheduler_type: cosine学习率调度器类型使用 cosine 调度策略通常能在训练后期逐渐减小学习率。warmup_ratio: 0.1学习率的预热比例设置为 0.1 表示前10%的训练步骤中学习率将逐步增加到初始值。bf16: true启用 bfloat16 精度进行训练以减少显存消耗并加速训练。这通常需要支持 bfloat16 的硬件如TPU。ddp_timeout: 180000000设置 Distributed Data ParallelDDP 模式下的超时。这个值通常是为了防止分布式训练过程中发生超时错误。 评估配置 (eval) val_size: 0.1 per_device_eval_batch_size: 1 eval_strategy: steps eval_steps: 500val_size: 0.1指定验证集的大小为训练数据的 10%即从训练数据集中划分出10%作为验证集。per_device_eval_batch_size: 1评估时每个设备的批次大小为1。eval_strategy: steps评估策略设置为按步数评估即每训练一定步数后进行评估。eval_steps: 500每500步进行一次评估。 微调过程 配置好训练参数和数据集后你可以开始微调模型 llamafactory-cli train examples/train_lora/qwen2.5_7b_lora_sft.yaml原生显存占用 int 8 显存占用 | NVIDIA-SMI 550.90.07 Driver Version: 550.90.07 CUDA Version: 12.4 | |--------------------------------------------------------------------------------------- | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | || | 0 NVIDIA vGPU-32GB On | 00000000:31:00.0 Off | N/A | | 30% 40C P2 168W / 320W | 16894MiB / 32760MiB | 100% Default | | | | N/A | --------------------------------------------------------------------------------------- | 1 NVIDIA vGPU-32GB On | 00000000:65:00.0 Off | N/A | | 30% 40C P2 182W / 320W | 16892MiB / 32760MiB | 100% Default | | | | N/A | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | ||int 4 显存占用 根据测试环境显存占用预估 int8 与 int4量化可以在3卡4080环境中进行qwen2.5 7B Instruct 模型的训练任务 小结 通过以上步骤你可以使用 LoRA 方法对 Qwen2.5 7B Instruct 模型 进行高效的微调。使用 LoRA 可以显著减少训练过程中所需的计算资源和存储需求同时依然能够获得出色的微调效果。确保在训练过程中使用合适的数据集并根据实际需要调整 LoRA 的参数如秩 r 和 lora_alpha。
http://www.w-s-a.com/news/993445/

相关文章:

  • 厦门网站建设慕枫学做网站需要多久
  • 爱奇艺做任务领vip网站设计广告图片
  • 中科汇联网站建设手册上海公司名称注册查询网
  • 网站建设电子商务课总结和体会关于做网站书籍
  • 仪征网站建设公司哪家好简单网页制作素材图片
  • 甘肃第九建设集团公司网站潍坊个人做网站
  • 如何做后台网站的教程网站建设 关于我们
  • 极速网站建设哪家好连云港百度推广网站建设
  • 医院网站建设的目标wordpress中英文网站模板
  • 门户型网站开发难度网站导航栏有哪些
  • 推荐做任务网站软件定制开发哪家好
  • 邯郸兄弟建站第三方仓储配送公司
  • 商丘家具网站建设wordpress 添加代码
  • 基础建设的网站有哪些内容成都科技网站建设咨询电话
  • 券多多是谁做的网站招聘网站开发模板
  • 网站主机一般选哪种的企业数字展厅
  • 网站建设该如何学衡水建设局网站首页
  • 高校网站建设工作总结番禺网站开发哪家好
  • 苏州 网站的公司wordpress主页代码
  • 怎么用html做图片展示网站外贸网站建设推广费用
  • 可以做本地生活服务的有哪些网站中油七建公司官网
  • 如何建设谷歌网站网站建设优点
  • 做网站的目标是什么产品宣传片制作公司
  • 柳州建设公司网站辽宁建设工程信息网评标专家入库
  • 合肥建设学校官方网站excel导入wordpress
  • 禹城网站设计做网站需要考虑哪些
  • 深圳做营销网站建设wordpress添加文章封面
  • 阿里云的网站建设方案织梦和wordpress哪个安全
  • 聊城网站建设公司电话wordpress怎么重新配置文件
  • 创业如何进行网站建设泰州公司注册