当前位置: 首页 > news >正文

做柜子喜欢上哪些网站看wordpress添加支付宝支付

做柜子喜欢上哪些网站看,wordpress添加支付宝支付,软件定制开发项目网,潍坊最早做网站的公司【ChatGLM2-6B】小白入门及Docker下部署 一、简介1、ChatGLM2是什么2、组成部分3、相关地址 二、基于Docker安装部署1、前提2、CentOS7安装NVIDIA显卡驱动1#xff09;查看服务器版本及显卡信息2#xff09;相关依赖安装3#xff09;显卡驱动安装 2、 CentOS7安装NVIDIA-Doc… 【ChatGLM2-6B】小白入门及Docker下部署 一、简介1、ChatGLM2是什么2、组成部分3、相关地址 二、基于Docker安装部署1、前提2、CentOS7安装NVIDIA显卡驱动1查看服务器版本及显卡信息2相关依赖安装3显卡驱动安装 2、 CentOS7安装NVIDIA-Docker1相关环境准备2开始安装3验证使用 3、 Docker部署ChatGLM21下载对应代码包和模型包2上传至服务器并进行解压3下载镜像并启动容器4等待启动并访问页面5注意事项 三、开发环境搭建1) 代码远程编辑配置2) 一些基本的说明 四、使用1、启动命令2、接口调用方式2、模型微调1) 先安装依赖2) 进行微调3) 报错问题解决4微调完成 3、微调效果评估1修改evaluate.sh脚本2执行评估3评估结果 4、部署新模型1修改web_demo.sh文件 一、简介 1、ChatGLM2是什么 一个类似于ChatGPT的智能文本对话模型支持页面方式进行对话ChatGLM3已经支持图片分析和生成这里由于研究仅限于文本因此选择GLM2支持训练与微调代码开源 2、组成部分 模型基本的模型矩阵重量级的参数大约十几个G可以理解为是程序的初始化参数配置信息 代码加载模型的py代码ChatGLM2已经封装好了多种加载和对话的方式支持窗口对话、WEB页面对话、Socket对话、HTTP接口对话等方式。 3、相关地址 GitHub地址 https://github.com/THUDM/ChatGLM2-6B国内模型下载地址https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/?p%2Fmodelist代码下载地址https://github.com/THUDM/ChatGLM-6Bdocker下部署文档https://www.luckzym.com/tags/ChatGLM-6B/windows下部署文档https://github.com/ZhangErling/ChatGLM-6B/blob/main/deployment_windows.md官方推荐指导手册https://www.heywhale.com/mw/project/6436d82948f7da1fee2be59e 二、基于Docker安装部署 1、前提 安装了docker 16G以上显卡 2、CentOS7安装NVIDIA显卡驱动 先查看显卡是否已经安装没有安装再进行安装已安装就跳过此步 nvidia-smi # 如下图是已安装如果没有相关信息再进行显卡的安装。 1查看服务器版本及显卡信息 # Linux查看显卡信息ps若找不到lspci命令可以安装 yum install pciutils lspci | grep -i vga# 使用nvidia GPU可以 lspci | grep -i nvidia# 查看显卡驱动 cat /proc/driver/nvidia/version系统CentOS7 Linux显卡iGame GeForce RTX 3070 Ti Advanced OC 8G 2相关依赖安装 安装依赖环境 yum install kernel-devel gcc -y检查内核版本和源码版本保证一致 ls /boot | grep vmlinu rpm -aq | grep kernel-devel屏蔽系统自带的Nouveau # 查看命令 lsmod | grep nouveau # 修改dist-blacklist.conf文件 vim /lib/modprobe.d/dist-blacklist.conf # 将nvidiafb注释掉: blacklist nvidiafb # 然后添加以下语句 blacklist nouveau options nouveau modeset0可以在屏蔽之后重启系统并在命令行中输入lsmod | grep nouveau查看命令观察是否已经将其屏蔽。 重建Initramfs Image步骤 mv /boot/initramfs-$(uname -r).img /boot/initramfs-$(uname -r).img.bak dracut /boot/initramfs-$(uname -r).img $(uname -r)修改运行级别为文本模式 systemctl set-default multi-user.target重新启动 reboot3显卡驱动安装 去到NVIDIA官网下载对应的显卡驱动 网址https://www.nvidia.cn/Download/index.aspx?langcn点击搜索即可弹出对应的下载软件包 开始安装其软件包 chmod x NVIDIA-Linux-x86_64-525.105.17.run ./NVIDIA-Linux-x86_64-525.105.17.run验证是否安装成功 nvidia-smi到此CentOS7已完成NVIDIA显卡驱动的安装 2、 CentOS7安装NVIDIA-Docker 1相关环境准备 在开始之前我们需要确保已经安装好了Docker的环境并且也安装了Docker Compose。 需要注意的是因为NVIDIA-Docker软件的存在我们不需要在宿主机上安装CUDA工具包这样我们可以根据不同的需要选择合适的版本。 NVIDIA容器工具包对应的Github代码仓库地址https://github.com/NVIDIA/nvidia-docker 2开始安装 # 获得当前操作系统的发行版和版本以便下载适用于NVIDIA Docker Toolkit的正确仓库 distribution$(. /etc/os-release;echo $ID$VERSION_ID)# 下载NVIDIA Docker Toolkit仓库并将其保存为文件到/etc/yum.repos.d/目录中使得包管理器够定位并安装工具包 curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.repo | sudo tee /etc/yum.repos.d/nvidia-docker.repo# 使用yum安装nvidia-container-toolkit软件包 sudo yum install -y nvidia-container-toolkit# 重新启动Docker守护程序以便它识别通过安装NVIDIA Docker Toolkit进行的新配置更改 sudo systemctl restart docker3验证使用 # 在现有的GPU上启动启用GPU的容器并运行nvidia-smi命令 docker run --gpus all nvidia/cuda:10.0-base nvidia-smi# 在两个GPU上启动启用GPU的容器并运行nvidia-smi命令 docker run --gpus 2 nvidia/cuda:10.0-base nvidia-smi# 在特定的GPU上启动启用GPU的容器并运行nvidia-smi命令 docker run --gpus device1,2 nvidia/cuda:10.0-base nvidia-smidocker run --gpus deviceUUID-ABCDEF,1 nvidia/cuda:10.0-base nvidia-smi# 这个命令演示了如何为容器指定能力图形、计算等 # 请注意这种方式很少使用 docker run --gpus all,capabilitiesutility nvidia/cuda:10.0-base nvidia-smi3、 Docker部署ChatGLM2 1下载对应代码包和模型包 链接https://pan.baidu.com/s/1RhoYQ6wL5eJM8Qd0K4BYAg?pwdzws4 提取码zws42上传至服务器并进行解压 解压完成后的目录如下 3下载镜像并启动容器 注意在线环境直接使用以下代码启动即可离线环境需要先手动下载和加载woshikid/chatglm2-6b镜像然后在使用docker进行启动 docker run --gpus all --runtimenvidia \ -p 7860:7860 \ -p 8000:8000 \ -p 8501:8501 \ -p 80:80 \ -v ./ChatGLM2-6B:/ChatGLM2-6B \ -v ./model/chatglm2-6b:/chatglm2-6b \ --name chatglm2-webdemo \ -dit woshikid/chatglm2-6b \ python web_demo.py其中-p表示端口映射物理机的7860端口会映射容器的7860端口这个端口是web页面的端口 -v后跟的参数表示将物理机上的对应目录映射进入docker容器中 以下是启动的不同的访问方式和端口信息 woshikid/chatglm2-6b python cli_demo.py -p 8000:8000 woshikid/chatglm2-6b python api.py -p 8000:8000 woshikid/chatglm2-6b python openai_api.py -p 7860:7860 woshikid/chatglm2-6b python web_demo.py -p 8501:8501 woshikid/chatglm2-6b streamlit run web_demo2.py4等待启动并访问页面 http://ip:7860即可进入对话页面 5注意事项 通过nvidia-smi命令可以查看显卡使用情况 另外如果是自己从github上下载的官方代码需要修改下web_demo.py代码允许远程访问否则默认会只允许本机访问。 三、开发环境搭建 1) 代码远程编辑配置 通常本地的代码开发机器性能不足以支持ChatGLM2-6B的运行但是在服务器上去编辑代码又十分的不方便因此使用一种可以远程开发的方法来进行开发。下面是对这种方法的步骤介绍 各种开发工具基本上都有这种功能这里以Idea或者PyCharm开发工具来说明其原理是本地开发后利用SFTP将代码推送到远程服务器来进行对应的调试。 1首先打开IDEA或PyCharm开发工具打开我们的代码。 2打开开发环境配置。 3新建一个SFTP配置并在Connection中填写服务器连接配置信息。 4点击Mappings将本地的代码地址和服务器上的代码地址做映射这里服务器上的代码地址是我们ChatGLM-6B的地址用于映射到容器内部然后点击确认。 5代码推送。 6这样就可以实现本地编写代码推送到远程进行调试了十分的便捷。 报错的信息不用管因为本地没有环境所以只能当编辑器使用。 2) 一些基本的说明 四、使用 请先学习一篇文章以了解什么是微调以及如何进行微调https://zhuanlan.zhihu.com/p/641047705?utm_id0 1、启动命令 基础镜像woshikid/chatglm2-6b docker run --gpus all --runtimenvidia \ -p 7860:7860 \ -p 8000:8000 \ -p 8501:8501 \ -p 80:80 \ -v ./ChatGLM2-6B:/ChatGLM2-6B \ -v ./model/chatglm2-6b:/chatglm2-6b \ --name chatglm2-6b \ -dit woshikid/chatglm2-6b \ python web_demo.py 以下是启动的不同的访问方式和端口信息 woshikid/chatglm2-6b python cli_demo.py -p 8000:8000 woshikid/chatglm2-6b python api.pyW -p 8000:8000 woshikid/chatglm2-6b python openai_api.py -p 7860:7860 woshikid/chatglm2-6b python web_demo.py -p 8501:8501 woshikid/chatglm2-6b streamlit run web_demo2.py vim web_demo.py 2、接口调用方式 curl -X POST http://127.0.0.1:8000 \-H Content-Type: application/json \-d {prompt: 你好, history: []} 回复的内容 {response:你好我是人工智能助手 ChatGLM-6B很高兴见到你欢迎问我任何问题。,history:[[你好,你好我是人工智能助手 ChatGLM-6B很高兴见到你欢迎问我任何问题。]],status:200,time:2023-03-23 21:38:40 } 2、模型微调 微调参数文件为.json文件先将你的微调数据和验证数据处理成如下格式 {content: 类型#裤*版型#宽松*风格#性感*图案#线条*裤型#阔腿裤, summary: 宽松的阔腿裤这两年真的吸粉不少明星时尚达人的心头爱。毕竟好穿时尚谁都能穿出腿长2米的效果宽松的裤腿当然是遮肉小能手啊。上身随性自然不拘束面料亲肤舒适贴身体验感棒棒哒。系带部分增加设计看点还让单品的设计感更强。腿部线条若隐若现的性感撩人。颜色敲温柔的与裤子本身所呈现的风格有点反差萌。} {content: 类型#裙*风格#简约*图案#条纹*图案#线条*图案#撞色*裙型#鱼尾裙*裙袖长#无袖, summary: 圆形领口修饰脖颈线条适合各种脸型耐看有气质。无袖设计尤显清凉简约横条纹装饰使得整身人鱼造型更为生动立体。加之撞色的鱼尾下摆深邃富有诗意。收腰包臀,修饰女性身体曲线结合别出心裁的鱼尾裙摆设计勾勒出自然流畅的身体轮廓展现了婀娜多姿的迷人姿态。} {content: 类型#上衣*版型#宽松*颜色#粉红色*图案#字母*图案#文字*图案#线条*衣样式#卫衣*衣款式#不规则, summary: 宽松的卫衣版型包裹着整个身材宽大的衣身与身材形成鲜明的对比描绘出纤瘦的身形。下摆与袖口的不规则剪裁设计彰显出时尚前卫的形态。被剪裁过的样式呈现出布条状自然地垂坠下来别具有一番设计感。线条分明的字母样式有着花式的外观棱角分明加上具有少女元气的枣红色十分有年轻活力感。粉红色的衣身把肌肤衬托得很白嫩又健康。} {content: 类型#裙*版型#宽松*材质#雪纺*风格#清新*裙型#a字*裙长#连衣裙, summary: 踩着轻盈的步伐享受在午后的和煦风中让放松与惬意感为你免去一身的压力与束缚仿佛要将灵魂也寄托在随风摇曳的雪纺连衣裙上吐露出UNK微妙而又浪漫的清新之意。宽松的a字版型除了能够带来足够的空间也能以上窄下宽的方式强化立体层次携带出自然优雅的曼妙体验。} 其中content是向模型输入的内容summary为模型应该输出的内容。 其中微调数据是通过本批数据对模型进行调试文件是train.json验证数据是通过这些数据验证调试的结果文件是dev.json。 1) 先安装依赖 pip install rouge_chinese -i https://pypi.douban.com/simple/ pip install nltk -i https://pypi.douban.com/simple/ pip install datasets -i https://pypi.douban.com/simple/ pip install jieba -i https://pypi.douban.com/simple/ pip install transformers -i https://pypi.douban.com/simple/ ​ train.sh微调 ​ evaluate.sh: 调试结果评估 2) 进行微调 微调参数如下 PRE_SEQ_LEN128 LR2e-2 NUM_GPUS1torchrun --standalone --nnodes1 --nproc-per-node$NUM_GPUS main.py \--do_train \--train_file /chatglm2-6b/train.json \--validation_file /chatglm2-6b/dev.json \--preprocessing_num_workers 10 \--prompt_column content \--response_column summary \--overwrite_cache \--model_name_or_path /chatglm2-6b \--output_dir output/adgen-chatglm2-6b-pt-$PRE_SEQ_LEN-$LR \--overwrite_output_dir \--max_source_length 512 \--max_target_length 64 \--per_device_train_batch_size 1 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 16 \--predict_with_generate \--max_steps 3000 \--logging_steps 10 \--save_steps 1000 \--learning_rate $LR \--pre_seq_len $PRE_SEQ_LEN \修改 train.sh 和 evaluate.sh 中的 train_file、validation_file和test_file为你自己的 JSON 格式数据集路径并将 prompt_column 和 response_column 改为 JSON 文件中输入文本和输出文本对应的 KEY。可能还需要增大 max_source_length 和 max_target_length 来匹配你自己的数据集中的最大输入输出长度。并将模型路径 THUDM/chatglm-6b 改为你本地的模型路径。 其中的LR2e-2表示的是调整的权重2e-2表示0.0002可以适当降低让模型也可以回答其他问题。 3) 报错问题解决 出现了$‘\r’: command not found错误 可能因为该Shell脚本是在Windows系统编写时每行结尾是\r\n 而在Linux系统中行每行结尾是\n 在Linux系统中运行脚本时会认为\r是一个字符导致运行错误 使用dos2unix 转换一下就可以了 dos2unix 文件名# dos2unix: converting file one-more.sh to Unix format ... -bash: dos2unix: command not found 就是还没安装安装一下就可以了 apt install dos2unix报错RuntimeError: Library cudart is not initialized 可以把 --quantization_bit 4 去掉试试 4微调完成 3、微调效果评估 1修改evaluate.sh脚本 2执行评估 bash evaluate.sh3评估结果 微调评估的文件位于./output/adgen-chatglm2-6b-pt-128-2e-2/generated_predictions.txt 其中labels 是 dev.json 中的预测输出predict 是 ChatGLM-6B 生成的结果 4、部署新模型 1修改web_demo.sh文件 设置端口及允许远程访问
http://www.w-s-a.com/news/540984/

相关文章:

  • jsp商业网站开发网站链接如何做二维码
  • 江苏高校品牌专业建设网站怎么制作网站搜索窗口
  • 北京app建设 网站开发公司织梦网站seo
  • 大学网站 作风建设专题汽车配件外贸出口公司
  • 东莞做网站系统购物网站建设精英
  • 建设vip网站相关视频网站营销建设公司
  • 微站直播平台杭州seo按天计费
  • seo 新旧网站 两个域名福州设计网站建设
  • 如何做网站客户端如何做网络营销网站
  • 苏州网站建设制度打鱼网站建设
  • 瓜子二手车直卖网上海小红书seo
  • 天津中小企业网站制作珠海做网站的
  • 网站排名影响因素最牛的科技网站建设
  • 长春网站建设公司怎么样电商网站建设与开发期末考试
  • 品牌网站建设搭建国内外网站建设
  • 辽宁人社app一直更新整站seo定制
  • 兰州网站建设论坛装修品牌
  • 云南省城乡住房与建设厅网站用什么网站可以做电子书
  • 自己电脑怎么做网站服务器吗0基础如何做网站
  • 做网站的股哥网络整合营销方案策划
  • 网站你懂我意思正能量晚上唯品会网站开发费用
  • 网站认证金额怎么做分录网页无法访问是怎么回事
  • 樟木头建网站的wordpress自适应吸附菜单
  • 番禺网站设计威海微网站建设
  • 新乡网站建设服务网站建设的点子
  • 赛罕区城乡建设局网站什么是新媒体运营
  • 松原企业网站建设设计素材网排名
  • 网站建设是那个行业广东公司排名
  • 制作网站要多少钱seo是如何优化
  • 求个网站2020急急急做金融网站拘留多久