php网站开发实例教程百度,企业宣传,做网站要学些什么条件,app推广方案模板半年多之前写过一个教程#xff1a;在Windows上用Llama Factory微调Llama 3的基本操作_llama-factory windows-CSDN博客
如果用命令行做的话#xff0c;前面的步骤可以参考上面这个博客。安装好环境后#xff0c; 用自我认知数据集微调Lora模块#xff1a;data/identity.j…半年多之前写过一个教程在Windows上用Llama Factory微调Llama 3的基本操作_llama-factory windows-CSDN博客
如果用命令行做的话前面的步骤可以参考上面这个博客。安装好环境后 用自我认知数据集微调Lora模块data/identity.json里面的格式也很好理解 { instruction: 你是谁, input: , output: 您好我是 { {name}}一个由 { {author}} 发明的人工智能助手。我可以回答各种问题提供实用的建议和帮助帮助用户完成各种任务。 }, 可以直接用VS Code将上面的name和author替换另存为一个文件并且在data/dataset_info.json增加这个类似于我这里另存的文件名为identity_tpri.json identity_tpri: { file_name: identity_tpri.json }, 将文件examples/train_qlora/llama3_lora_sft_awq.yaml另存为一个文件并且重命名然后配置对应一下已经下载下来的模型文件顺便说一句模型文件可以在魔搭社区 这里下载应该速度都很快我这里是这样修改的标红的是更新的内容除了微调数据集和模型位置以及Lora模块位置需要注意的就是num_train_epochs之前默认的值是3经过测试以后太小了 ### model model_name_or_path: /home/quyu/Qwen2.5-7B-Instruct/ trust_remote_code: true ### method stage: sft do_train: true finetuning_type: lora lora_rank: 8 lora_target: all ### dataset dataset: identity_tpri template: qwen cutoff_len: 2048 max_samples: 1000 overwrite_cache: true preprocessing_num_workers: 16 ### output output_dir: saves/qwen-7b/lora/sft logging_steps: 10 save_steps: 500 plot_loss: true overwrite_output_dir: true ### train per_device_train_batch_size: 1 gradient_accumulation_steps: 8 learning_rate: 1.0e-4 num_train_epochs: 20.0 lr_scheduler_type: cosine warmup_ratio: 0.1 bf16: true ddp_timeout: 180000000 ### eval # val_size: 0.1 # per_device_eval_batch_size: 1 # eval_strategy: steps # eval_steps: 500 然后运行一下重命名的文件是qwen_lora.yaml
llamafactory-cli train examples/train_qlora/qwen_lora.yaml
如果显存不够可能会报错例如训练32B的时候这个我在后一篇博客里再总结。如果显存够那么可以直接得到微调后的lora模块我这里用两个3090训练只需要一分多钟。我们将examples/inference/llama3_lora_sft.yaml复制以后重命名并且将其内容改为 model_name_or_path: /home/quyu/Qwen2.5-7B-Instruct adapter_name_or_path: saves/qwen-7b/lora/sft template: qwen infer_backend: huggingface # choices: [huggingface, vllm] trust_remote_code: true 然后运行重命名的文件是qwen2_lora.yaml看自己喜好重命名即可
llamafactory-cli chat examples/inference/qwen2_lora.yaml
然后再问大模型“你是谁”就可以看到修改之后的效果了。