当前位置: 首页 > news >正文

福州网站的优化定制开发网站如何报价单

福州网站的优化,定制开发网站如何报价单,电子商务网站建设与管理试题及答案,做游戏交易网站LlamaFactory https://llamafactory.readthedocs.io/zh-cn/latest/ 安装 必须保证版本匹配#xff0c;否则到训练时#xff0c;找不到gpu cuda。 否则需要重装。下面图片仅供参考。因为cuda12.8装了没法用#xff0c;重新搞12.6 cudacudnnpytorch12.69.612.6最新#xf…LlamaFactory https://llamafactory.readthedocs.io/zh-cn/latest/ 安装 必须保证版本匹配否则到训练时找不到gpu cuda。 否则需要重装。下面图片仅供参考。因为cuda12.8装了没法用重新搞12.6 cudacudnnpytorch12.69.612.6最新12.89.7.1无 Windows CUDA 安装 打开 设置 在 关于 中找到 Windows 规格 保证系统版本在以下列表中 windows11 如下 支持版本号 Microsoft Windows 11 21H2 Microsoft Windows 11 22H2-SV2 Microsoft Windows 11 23H2 Microsoft Windows 10 21H2 Microsoft Windows 10 22H2 Microsoft Windows Server 2022 安装之前确认版本 在命令提示符也就是cmd中输入nvidia-smi.exe查看你电脑支持的cuda最高版本。(第一行最后) 这个的话必须要有显卡 选择对应的版本下载并根据提示安装。 如果自己使用不了最新版本根据自己配置下载对应的版本如下图 安装CUDA完成 打开 cmd 输入 nvcc -V 若出现类似内容则安装成功。 否则检查系统环境变量保证 CUDA 被正确导入。 cuDNN安装 ‌cuDNNCUDA Deep Neural Network library是一个由NVIDIA开发的深度学习GPU加速库旨在为深度学习任务提供高效、标准化的原语基本操作来加速深度学习框架在NVIDIA GPU上的运算。 选择对应版本进行下载。如果当前界面没有你需要的版本可访问如下历史版本页面进行下载 https://developer.nvidia.com/rdp/cudnn-archive 解压后目录结构如图 将目录bin、lib、include复制到CUDA的安装目录下LICENSE除外可以先对CUDA安装目录下的这三个目录做备份以免出现覆盖无法恢复。如图 默认安装C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8 最后将如下path添加到环境变量Path中: C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\bin C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\include C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\lib C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\libnvvp验证 配置完成后我们可以验证是否配置成功主要使用CUDA内置的deviceQuery.exe 和 bandwithTest.exe 首先winR启动cmdcd到CUDA安装目录下的 …\extras\demo_suite,然后分别执行bandwidthTest.exe和deviceQuery.exe,应该得到下图 执行测试CUDA是否可用GPU LLaMA-Factory 安装 在安装 LLaMA-Factory 之前请确保您安装了下列依赖: 运行以下指令以安装 LLaMA-Factory 及其依赖: git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e .[torch,metrics]如果出现环境冲突请尝试使用 pip install --no-deps -e . 解决 LLaMA-Factory 校验 完成安装后可以通过使用 llamafactory-cli version 来快速校验安装是否成功 如果您能成功看到类似下面的界面就说明安装成功了。 Windows QLoRA 如果您想在 Windows 上启用量化 LoRAQLoRA请根据您的 CUDA 版本选择适当的 bitsandbytes 发行版本。 pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl FlashAttention-2 如果您要在 Windows 平台上启用 FlashAttention-2请根据您的 CUDA 版本选择适当的 flash-attention 发行版本。 其他依赖 数据处理 https://llamafactory.readthedocs.io/zh-cn/latest/getting_started/data_preparation.html 目前我们支持 Alpaca 格式和 ShareGPT 格式的数据集。 Alpaca 指令监督微调数据集 指令监督微调(Instruct Tuning)通过让模型学习详细的指令以及对应的回答来优化模型在特定指令下的表现。 instruction 列对应的内容为人类指令 input 列对应的内容为人类输入 output 列对应的内容为模型回答。下面是一个例子 alpaca_zh_demo.json {instruction: 计算这些物品的总费用。 ,input: 输入汽车 - $3000衣服 - $100书 - $20。,output: 汽车、衣服和书的总费用为 $3000 $100 $20 $3120。 },进行指令监督微调时 instruction 列对应的内容会与 input 列对应的内容拼接后作为最终的人类输入即人类输入为 instruction\ninput。而 output 列对应的内容为模型回答。 在上面的例子中人类的最终输入是 计算这些物品的总费用。 输入汽车 - $3000衣服 - $100书 - $20。模型的回答是 汽车、衣服和书的总费用为 $3000 $100 $20 $3120。如果指定 system 列对应的内容将被作为系统提示词。 history 列是由多个字符串二元组构成的列表分别代表历史消息中每轮对话的指令和回答。注意在指令监督微调时历史消息中的回答内容也会被用于模型学习。 [{instruction: 人类指令必填,input: 人类输入选填,output: 模型回答必填,system: 系统提示词选填,history: [[第一轮指令选填, 第一轮回答选填],[第二轮指令选填, 第二轮回答选填]]} ]下面提供一个 alpaca 格式 多轮 对话的例子对于单轮对话只需省略 history 列即可。 [{instruction: 今天的天气怎么样,input: ,output: 今天的天气不错是晴天。,history: [[今天会下雨吗,今天不会下雨是个好天气。],[今天适合出去玩吗,非常适合空气质量很好。]]} ]对于上述格式的数据 dataset_info.json 中的 数据集描述 应为 数据集名称: {file_name: data.json,columns: {prompt: instruction,query: input,response: output,system: system,history: history} }预训练数据集 偏好数据集 KTO 数据集 多模态数据集 ShareGPT 指令监督微调数据集偏好数据集OpenAI格式 WebUI LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后您可以通过以下指令进入 WebUI: llamafactory-cli webuihttp://localhost:7860/ WebUI 主要分为四个界面训练、评估与预测、对话、导出。 训练模型 在开始训练模型之前您需要指定的参数有 模型名称及路径训练阶段微调方法训练数据集学习率、训练轮数等训练参数微调参数等其他参数输出目录及配置路径 随后您可以点击 开始 按钮开始训练模型。 关于断点重连:适配器断点保存于 output_dir 目录下请指定 适配器路径 以加载断点继续训练。 如果您需要使用自定义数据集请在 data/data_info.json 中添加自定义数据集描述并确保 数据集格式 正确否则可能会导致训练失败。 示例 在example目录中有大量的示例可供参考。 参照配置 NOTE 学习率 5e-5 0.0005 太小了梯度下降慢。这里调整到0.001.下图是0.001 的loss函数下降的图。 梯度下降就是对损失函数求最小值的过程。 LLaMA-Factory\examples\README_zh.md记录各种微调配置和执行脚本 数据集例子 这里直接使用原有的identity文件微调 替换原LLaMA-Factory\data\identity.json文件中{{name}} 为 小羽{{author}} 为 嘉羽很烦 预览片段 [{instruction: hi,input: ,output: Hello! I am 小羽, an AI assistant developed by 嘉羽很烦. How can I assist you today?},{instruction: hello,input: ,output: Hello! I am 小羽, an AI assistant developed by 嘉羽很烦. How can I assist you today?},...对话模板选择deepseek3官方有说明 这里注意一下 需要LlamaFactory在那个目录启动这里test-dataset就放在那个目录目录下需要包含dataset_info.json. 这是数据集描述文件。参考安装目录下data/dataset_info.json{identity: {file_name: identity.json} }预览一下数据集是否争取正确 修改输出目录 修改配置后点击开始按钮等待进度条训练完毕即可。CPU也能训练但是时间太慢有条件的最好用GPU速度快 评估预测与对话 评估预测选项卡 模型训练完毕后您可以通过在评估与预测界面通过指定 模型 及 适配器 的路径在指定数据集上进行评估。 您也可以通过在对话界面指定 模型、 适配器 及 推理引擎 后输入对话内容与模型进行对话观察效果。 【windows 报错】不影响之下 chat步骤可以回答出期望的结果即可 chat选项卡 到这一步已经加载 训练后模型了。进行问题测试。 可以看到我们的 身份识别 训练微调数据已经整合进 模型中了。 导出 如果您对模型效果满意并需要导出模型您可以在导出界面通过指定 模型、 适配器、 分块大小、 导出量化等级及校准数据集、 导出设备、 导出目录 等参数后点击 导出 按钮导出模型。 到处文件目录 Ollama安装教程 Ollama教程 Ollama部署微调模型步骤 1. 模型构建 使用 ModelFile 文件定义模型参数和上下文。通过 ollama create 命令将模型导入到 Ollama 中。 将生成的ModelFile文件放到外部 如果没有新建 内容进入到ollama 模型页 https://ollama.com/library/deepseek-r1:1.5b/blobs/369ca498f347 copy template内容 下面内容导出时llamafactory自动生成的。因为本地装了ollama。 需要修改From 默认是 . 【自测不行】可能需要修改成绝对路径【可行】 temperature参数DeepSeek-R1官方建议给0.6 # ollama modelfile auto-generated by llamafactory # 必须是model.safetersors文件的目录。即我们导出的目录 FROM D:\model\fine-tune\DeepSeek-R1-1.5B-Distill-kong-idendityTEMPLATE begin▁of▁sentence{{ if .System }}{{ .System }}{{ end }}{{ range .Messages }}{{ if eq .Role user }}User{{ .Content }}Assistant{{ else if eq .Role assistant }}{{ .Content }}end▁of▁sentence{{ end }}{{ end }}PARAMETER stop end▁of▁sentence PARAMETER num_ctx 4096 进入cmd中执行命令 shell ollama create DeepSeek-R1-1.5B-Distill-kong-idendity -f ModelFile可以看到模型已经导入到ollama中。我们就可以ollama启动运行我们微调的大模型提供open ai 接口调用了 3. 模型启动 使用 ollama run 命令启动微调后的模型 DeepSeek-R1-1.5B-Distill-kong-idendity:latest。 执行启动命令 ollama run DeepSeek-R1-1.5B-Distill-kong-idendity:latest 4. API调用Ollama 调用地址POST localhost:11434/api/chat body: 修改自己的微调模型测试 {model:DeepSeek-R1-1.5B-Distill-kong-idendity, // 模型名称ollama上显示的名字stream: true, // 是否流式true流式返回temperature: 0.6, // 思维发散程度top_p:0.95, // 一种替代温度采样的方法称为核采样其中模型考虑具有 top_p 概率质量的标记的结果messages:[ // 上下文{role:user,content:你是谁}] }通过以上步骤我们成功地将微调后的模型部署到 Ollama 中并通过 API 接口进行调用和测试。 下一站 完成了LlamaFactory webui 可视化模型微调的所有步骤
http://www.w-s-a.com/news/343217/

相关文章:

  • 青岛网站建设华夏h5链接是什么意思
  • 贸易公司如何做网站百度做的网站一般在什么后台
  • 东莞网站设计方案广州做服装电商拿货的网站
  • 部队网站建设设计dede个人网站模板
  • 个人网站怎么自己备案重庆怎样网站推广
  • 做电影网站挣钱吗重庆网站建设技术托管
  • 网站建设用户登录网站商业授权含义
  • 接做室内效果图的网站wordpress制作上传图片
  • 维护一个网站一年多少钱网站微信登录怎么做的
  • 中国建设银行网站E路护航官网如何在招聘网站上选个好公司做销售
  • 网站开发质量管理招聘网站建设方案
  • 有没有那个的网站seo编辑的工作内容
  • 平度那里有做网站的昆明建设招聘信息网站
  • 邯郸城乡建设部网站首页唐山市住房城乡建设部网站主页
  • 慕课联盟网站开发实战六安品牌网站建设电话
  • 制作企业网站首页贵州小程序制作开发
  • 什么是网站后台郑州众志seo
  • 做线上交互的网站分销平台
  • 培训机构网站开发江门cms模板建站
  • 网站描述模板建筑模型网站有哪些
  • 域名注册费用张家界seo
  • 淘宝联盟怎么自己做网站山西省住房与城乡建设厅网站
  • 最新网站建设常见问题使用微信推广的各种方法
  • 购物网站建设课程设计报告做木工的网站
  • 扶沟县网站开发网站建设在哪里进行
  • 查看网站服务器信息网站首页地址 网站域名
  • 网站网站制作网站的ui界面设计案例分析
  • 怎么查网站是否备案成都装修公司联系电话
  • 佛山免费发布信息的网站oa办公系统排行榜
  • 南湖区建设街道办事处网站汕头建设银行各支行电话