当前位置: 首页 > news >正文

教人做窗帘的视频网站自己在线制作logo免费足球队徽

教人做窗帘的视频网站,自己在线制作logo免费足球队徽,嘉兴做微网站,网站seo方案模板一、vLLM 部署 DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill 系列模型是 DeepSeek-R1 的蒸馏模型#xff0c;官方提供了从 1.5B - 70B 不同尺寸大小的模型。特别适合在计算资源有限的环境中部署。 DeepSeek-R1 各个版本的蒸馏模型评估结果如下#xff1a; 其中 DeepS…一、vLLM 部署 DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill 系列模型是 DeepSeek-R1 的蒸馏模型官方提供了从 1.5B - 70B 不同尺寸大小的模型。特别适合在计算资源有限的环境中部署。 DeepSeek-R1 各个版本的蒸馏模型评估结果如下 其中 DeepSeek-R1-Distill-Qwen-32B 是通过对 Qwen2.5-32B 模型进行蒸馏得到的版本。该模型在评估结果中整体表现优异在多项测试中均超过 GPT-4o-0513、o1-mini 、Claude-3.5-Sonnet-1022且在 DeepSeek-R1-Distill 系列中效果和 DeepSeek-R1-Distill-Llama-70B 相差不大但参数量近乎是 DeepSeek-R1-Distill-Llama-70B 的一半只有 32B大小因此可谓是本地部署的绝佳选择。 本次实验就基于 DeepSeek-R1-Distill-Qwen-32B 模型本地私有化部署其中推理优化框架采用 vLLM。 vLLM是一个快速且易于使用的大模型库专为大模型的推理和部署而设计。可以无缝集成 HuggingFace、Modelscope 上的模型。 关于 vLLM 的安装可参考下面这篇文章 利用 vLLM 优化部署私有化大模型让推理速度飞起 vLLM 环境部署好后首先使用 modelscope 下载 DeepSeek-R1-Distill-Qwen-32B 模型到指定目录下 modelscope download --modeldeepseek-ai/DeepSeek-R1-Distill-Qwen-32B --local_dir DeepSeek-R1-Distill-Qwen-32B然后使用 vLLM 读取模型启动API服务。 注意下面参数需要依据自己的算力环境适当修改 export CUDA_VISIBLE_DEVICES0,1vllm serve DeepSeek-R1-Distill-Qwen-32B \--host 0.0.0.0 \--port 8060 \--dtype bfloat16 \--tensor-parallel-size 2 \--cpu-offload-gb 0 \--gpu-memory-utilization 0.8 \--max-model-len 8126 \--api-key token-abc123 \--enable-prefix-caching--trust-remote-code关键参数说明 export CUDA_VISIBLE_DEVICES0,1 指定所使用的GPU由于我本地有两块这里指定了 0,1 , 如果只有一块的情况下可指定 0dtype: 数据类型其中 bfloat1616位浮点数适合 NVIDIA A100 等设备。tensor-parallel-sizeTensor 并行的数量当多 GPU 分布式推理时使用建议和GPU的数量一致。cpu-offload-gb允许将部分模型权重或中间结果卸载到 CPU 的内存中单位为 GB。模拟 GPU 内存扩展如果部署的模型大于了显存大小可以设置该参数但是推理速度会大大下降。gpu-memory-utilization设置 GPU 内存利用率的上限。max-model-len允许模型最大处理的Token数该参数越大占用显存越大。enable-prefix-caching启用前缀缓存减少重复计算。 显存占用情况 基于以上配置启动后整体大概占用了 79.2G 显存。如果启动显存不足可适当调整 gpu-memory-utilization 和 max-model-len 参数或通过 cpu-offload-gb 将部分模型权重卸载到内存中。 启动成功后通过 /v1/models 接口可查看模型列表 curl http://localhost:8060/v1/models -H Authorization: Bearer token-abc123测试API交互 curl http://localhost:8060/v1/chat/completions \-H Content-Type: application/json \-H Authorization: Bearer token-abc123 \-d {model: DeepSeek-R1-Distill-Qwen-B,messages: [{role: system, content: You are a helpful assistant.},{role: user, content: 你好介绍一下你自己}]}二、Open-WebUI 部署 Open WebUI是一个开源的、可扩展的、功能丰富的自托管AI平台旨在完全离线运行。它主要设计用于与大型语言模型LLMs进行交互支持多种模型和API提供了直观的图形用户界面使得用户可以更方便地管理和运行模型。 Github 地址 https://github.com/open-webui/open-webui 1. 部署 下载 open-webui 依赖 pip install open-webui启动 open-webui open-webui serve --port4096启动成功后浏览器访问http://ip:4096/ 即可打开 Open-WebUI 页面。 首次进入需要设置管理员账号密码设置完毕后进入到如下所示主页 2. 连接 DeepSeek-R1-Distill-Qwen-32B 模型。 点击左下角进入管理员面板 将 OpenAI API 和 Ollama API 关闭前提如果你有这两个连接的话可以开启。然后保留 直接连接 的开启 然后再次点击左下角进入设置 在外部链接中添加上面 vLLM 的服务 模型ID 可以留空会自动从 /v1/models 接口中获取。 保存后点击左上角 新对话 即可看到默认选择了 DeepSeek-R1-Distill-Qwen-32B 模型 三、对话测试
http://www.w-s-a.com/news/982584/

相关文章:

  • 建设网站的虚拟机配置建设银行宁波分行招聘网站
  • 济南网站开发xywlcn网络推广服务合同模板
  • 品牌网站制作流程图用asp做网站题目
  • 兰州市建设厅网站河南网站建设问一问公司
  • 高档网站建设前端网站大全
  • 深圳电力建设公司网站互联网网站有哪些
  • 淅川网站建设如何在百度上做自己的网站
  • 网站制作 南通有学给宝宝做衣服的网站吗
  • 做西式快餐店网站网络营销的含义是什么
  • 网络销售代理加盟南京seo排名扣费
  • 赤峰中国建设招标网站网站开发投标文件
  • 域名抢住网站婚庆网页设计
  • 公司网站建设的通知南宁怎么做网站
  • 搜狐快站建站教程电子商务网站后台模板
  • .gs域名做网站怎么样做网站有没有用
  • 肇庆住房和城乡建设局网站广州seo公司排名
  • j2ee网站开发买什么书网络媒体有哪些
  • 江西省住房建设部官方网站用多说的网站
  • 云课堂哪个网站做的好网站 集约化平台建设方案的通知
  • 撰写网站栏目规划怎么建自己的平台
  • 中国建设银行巴黎分行网站建设银行忘记密码网站首页
  • 网站左侧树形导航怎么做像wordpress一样的网站吗
  • 做网站用的书公司做网站 需要解决哪些问题
  • 电器网站建设策划书深圳动画制作
  • cpa网站建设wordpress支付宝微信收费吗
  • 权威网站排名桂林生活网论坛
  • 网站设计息济南网站建设济南
  • 安蓉建设总公司网站网站怎么做才能被百度收录
  • 电子商务网站业务流程分析做效果图的外包网站
  • wordpress仿站视频教程wordpress用什么php版本好