当前位置: 首页 > news >正文

com域名和网站可视化编辑网站开发

com域名和网站,可视化编辑网站开发,关键词搜索量查询,做娱乐新闻的网站有哪些在Windows 10上部署ChatGLM2-6B#xff1a;掌握信息时代的智能对话 硬件环境ChatGLM2-6B的量化模型最低GPU配置说明准备工作ChatGLM2-6B安装部署ChatGLM2-6B运行模式解决问题总结 随着当代科技的快速发展#xff0c;我们进入了一个数字化时代#xff0c;其中信息以前所未有的… 在Windows 10上部署ChatGLM2-6B掌握信息时代的智能对话 硬件环境ChatGLM2-6B的量化模型最低GPU配置说明准备工作ChatGLM2-6B安装部署ChatGLM2-6B运行模式解决问题总结 随着当代科技的快速发展我们进入了一个数字化时代其中信息以前所未有的速度传播。在这个信息爆炸的时代我们不仅面临着巨大的机遇还面临着挑战。为了更好地应对和充分利用这一趋势我们需要掌握一些关键技能和工具。本文将向您介绍如何在Windows 10专业版22H2 x64操作系统上部署ChatGLM2-6B这是一个强大的自然语言处理模型用于智能对话。 本文面向的操作系统为 window10 专业版 22H2 x64基于GPU的运算 硬件环境 名称参数PCHP Elite Tower 880 G9CPU16GGPUNVIDIA RTX3060处理器 12th Gen Intel® Core™i7-12700 2.10GHz操作系统window 10 专业版 22H2 x64 ChatGLM2-6B的量化模型最低GPU配置说明 名称参数显存要求ChatGLM2-6BFP1613GChatGLM2-6BINT46GChatGLM2-6B-32KFP1620GChatGLM2-6B-32KINT413G 注意如果仅使用CPU部署则ChatGLM2-6B的量化模型最低CPU 32G 准备工作 在部署ChatGLM2-6B之前您需要进行一些准备工作 安装Git和Git LFS 您可以从Git官方网站下载Git并在安装时务必选择安装Git LFS选项以支持大型文件的版本控制。 # window版Git安装时注意勾选git LFS选项即可 # Linux系统在安装完Git后需额外安装git LFS # 验证git是否正常: 出现版本信息为正常 git --version # 验证git lfs是否正常出现Git LFS initalized为正常 git lfs install安装CUDA CUDA是NVIDIA的并行计算平台用于加速深度学习任务。您需要确保安装了与您的NVIDIA显卡驱动程序兼容的CUDA版本【CUDA下载地址】 # 查看NVIDIA CUDA version 和 Driver Version一定要注意相关版本信息 nvidia-smi # 在下载页面选择相关版本和信息后下载安装包进行安装即可安装Python【下载地址】 安装Python建议使用Python 3.10.10版本并在安装时勾选将Python添加到系统变量PATH中。 注意无需下载最新版本本文选用python v3.10.10 更据安装包进行即可注意勾选将python添加至系统变量PATH 安装PyTorch【下载地址】 根据您的CUDA版本选择合适的PyTorch版本并使用pip安装。确保PyTorch与CUDA版本兼容。 # 注意pytorch的版本保证其和CUDA版本兼容 # 选择stable版其余更据自己系统和情况选择本文使用CUDA 11.8为最新版本(虽然CUDA版本为12.2但是其支持向下兼容) # 复制红框内容在命令行中进行安装等待完成 # 验证pytorch是否正常进入命令行或PowerShell pythonimport torchprint(torch.cuda.is_available())True # 返回True即为正常quit()ChatGLM2-6B安装部署 下载仓库代码 使用Git克隆ChatGLM2-6B仓库并安装依赖。 git clone https://github.com/THUDM/ChatGLM2-6B.git cd ChatGLM2-6B pip install -r requirements.txt下载ChatGLM2-6B模型 在项目目录下创建一个名为“model”的文件夹并下载ChatGLM2-6B的模型文件。 mkdir model cd model git clone https://huggingface.co/THUDM/chatglm2-6b git clone https://huggingface.co/THUDM/chatglm2-6b-int4 git clone https://huggingface.co/THUDM/chatglm2-6b-32k git clone https://huggingface.co/THUDM/chatglm2-6b-32k-int4请确保您下载了标记为LFSLarge File Storage的文件以获取完整的模型文件。 ChatGLM2-6B运行模式 在部署ChatGLM2-6B时您可以选择不同的运行模式包括Gradio网页模式、Streamlit网页模式、命令行模式和API模式。以下是每种模式的简要说明 Gradio网页模式 准备工作 # 进入项目目录 cd ChatGLM2-6B # 复制一份web_demo.py copy web_demo.py web_demo_bak.py2.模型参数调整 tokenizer AutoTokenizer.from_pretrained(model\\chatglm2-6b, trust_remote_codeTrue) model AutoModel.from_pretrained(model\\chatglm2-6b, trust_remote_codeTrue).cuda()3.服务参数调整 # demo.queue().launch(shareFalse, inbrowserTrue) # concurrency_count: 表示可以同时使用网页的人数超过就需要排队等候 # server_name: 开启局域网访问 # server_port: 指定端口访问 demo.queue(concurrency_count5, ).launch(shareFalse, inbrowserTrue, server_name0.0.0.0, server_port8080)启动 python web_demo.pyStreamlit网页 # 同Gradio配置类似进行调整web_demo2.py # 启动 streamlit run web_demo2.py # 此命令会开启局域网服务端口8501CLI模式 # 配置一致调整cli_demo.py # 启动 python cli_demo.py # 命令行中输入只是并回车即可生成回复输入clear:清空对话历史;输入stop:终止程序API模式 # 安装fastapi uvicorn依赖 pip install fastapi uvicorn # 配置api.py python api.py # 补充可设置ip和端口 # api.py ... uvicorn.run(app, hostx.x.x.x, port8000, workers1)访问接口: http://x.x.x.x:8000/; 请求方式POST 特别说明: 如果显存不足可使用量化方式加载模型 # int4 model AutoModel.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue).quantize(4).cuda() # int8 model AutoModel.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue).quantize(8).cuda()解决问题 在部署过程中可能会遇到一些问题。以下是一些常见问题和解决方法 运行web_demo.py报错AssertionError:Torch not compiled with CUDA enabledtorch和CUDA版本不匹配 # 首先检查cuda能否使用 python -c import torch; print(torch.cuda.is_availabled()) # 返回False, 说明torch版本与CUDA不匹配 # 使用指令 nvidia-smi查看CUDA版本然后到pytorch官方网站下载相应的CUDA安装 # 先卸载原torch pip uninstall torch # 安装指定CUDA版本的torch pip install --pre torch --index-url https://download.pytorch.org/whl/nightly/cu121gcc不是内部或外部命令 安装TDM-GCC,注意勾选 openmp 【TDM-GCC下载】 总结 通过按照以上步骤进行操作您将能够成功在Windows 10上部署ChatGLM2-6B从而掌握信息时代的智能对话能力。这将为您提供一个有趣而强大的工具用于与ChatGLM2-6B进行智能对话并深入了解自然语言处理的潜力。希望本文能帮助您充分利用信息时代的机遇同时也能够解决可能出现的问题。
http://www.w-s-a.com/news/951490/

相关文章:

  • 郑州做网站哪家公司好国外购买空间的网站有哪些
  • 资讯cms网站有那些餐饮品牌策划设计公司
  • 网站策划选题网站布局优化
  • 网站建设3000字wordpress 微信 主题制作
  • 代做寄生虫网站网站菜单效果
  • 网站备案为什么这么慢目录更新 wordpress
  • 视频在线制作网站Wordpress 外链图片6
  • 网站域名后缀有什么用网站建设的投资预算怎么写
  • 化妆品网站建设网站惠州网站关键字优化
  • 保定网站制作企业下载天眼查企业查询官网
  • 中山企业网站建设公司制作一个景点的网站
  • 连云港集团网站建设株洲建设网站
  • 做运动鞋评价的网站南山做网站联系电话
  • 网站开发公众号开发海南做公司网站
  • 论企业网站建设的必要性微信小程序做一个多少钱
  • 网站制作价格是多少元上海市中小企业服务中心
  • 网站建设管理人员济宁网站建设top
  • 桂林网站建设桂林网站的元素有哪些
  • 广东网站开发推荐网页制作个人简历模板教程
  • e建网保定百度seo公司
  • 网站建设中html代码网络培训课堂app
  • 无锡做网站seo自己做的网站如何上传网上
  • 园林景观网站模板小白怎么做跨境电商
  • 找第三方做网站 需要注意企业网站带数据库
  • 北京南站到北京站flash网站制作单选框和复选框ui组件
  • 网站建设核电集团网站设计案例
  • 宝塔做的网站能不能访问上海的广告公司网站建设
  • 网站会员系统方案新能源网站建设哪家好
  • 全球网站域名域名被墙查询
  • 做期货看资讯什么网站好哈尔滨网站设计联系方式