建设网站需要注意事项,姑苏网站建设,淄博网站开发选网泰,百度上开个网站怎么做目录 一#xff0c;演示二#xff0c;ChatGLM介绍三#xff0c;部署条件四#xff0c;手把手教你搭建1. 安装git2. 克隆地址到本地3. 进入项目#xff0c;克隆模型文件4. git lfs工具安装#xff08;已安装的话跳过#xff09;5. 克隆模型大文件6. 运行web_demo.py7. 结… 目录 一演示二ChatGLM介绍三部署条件四手把手教你搭建1. 安装git2. 克隆地址到本地3. 进入项目克隆模型文件4. git lfs工具安装已安装的话跳过5. 克隆模型大文件6. 运行web_demo.py7. 结果 五补充 一演示
私人部署地址http://ilovechatgpt.cn。
免费使用无限调用速度还蛮快呢。 二ChatGLM介绍
官方地址https://github.com/THUDM/ChatGLM-6B
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型由基于清华大学 KEG 实验室与智谱 AI 于 2023 年联合训练可以针对用户的问题和要求提供适当的答复和支持。
它基于 General Language Model 架构具有 62 亿参数。结合模型量化技术用户可以在消费级的显卡上进行本地部署具体的部署条件看下章。 ChatGLM-6B 使用了和 ChatGPT 相似的技术针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练辅以监督微调、反馈自助、人类反馈强化学习等技术的加持62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
特点
开源支持中文国内很少有支持中文的开源模型低成本部署兼容CPU具有记忆功能
三部署条件
经过测试推荐还是GPU部署CPU运行的话运行时占用的资源更多并且速度实在太慢了自己单独使用的话也不能忍受这么慢的速度。GPU的生成速度才能满足使用的体验。 内存不够启动项目的话进程会被自动kill掉。而且模型启动后占用的现存是远远低于需要的现存的比如说我用GPU部署的无量化的ChatGLM2-6B模型正常来说需要13GB显存但我完全启动后只占用了4GB。 四手把手教你搭建
1. 安装git
# centos 操作系统
yum install git
# ubuntu 操作系统
apt-get update
apt install git2. 克隆地址到本地
git clone https://github.com/THUDM/ChatGLM-6B
# 进入项目文件夹
cd ChatGLM-6B 实在很慢的话直接去gitee上面搜ChatGLM-6B找最新的有很多人把它搬到gitee作为镜像项目。
3. 进入项目克隆模型文件
模型文件的作用是作为训练集项目能够本地加载该模型文件并将其用于预测新的自然语言文本。模型文件决定我们能有怎么样的输出结果。 可以根据上面部署条件的需求来选择项目。我这里以 chatglm2-6b 来部署。
# 注意后面一定要加上.git。
git clone https://huggingface.co/THUDM/chatglm2-6b.git路径下就会有ChatGLM2-6B的文件夹我们进入到里面
cd chatglm2-6b你会发现模型很大但是一下子就clone完了是因为大文件是存储到lfs上面的需要我们用到git的lfs工具来进行下载。当然你也可以手动下载后然后拷贝到服务器上不过太麻烦不推荐。
4. git lfs工具安装已安装的话跳过
centos安装命令
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.rpm.sh | sudo bashsudo yum install git-lfsgit lfs installubuntu安装命令
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bashsudo apt-get install git-lfsgit lfs install5. 克隆模型大文件
git lfs pull 模型文件都很大下载时间很久我建议在晚上的时候使用如下命令这样睡一觉全部都已经下载好了。
# nohup 让程序后台运行使其不受终端会话的影响而持续运行
nohup git lfs pull 6. 运行web_demo.py
我建议把模型文件夹名字换成model毕竟容易理解
# 进入到项目文件夹内部
cd ChatGLM-6B
# 改模型名字
mv chatglm2-6b model修改官方样例代码
vim web_demo.pymodel为模型路径也就是刚刚改的。 .cuda() 意味用GPU运行如果没有GPU换成 .float() 用CPU运行就可以 server_name参数指定能够访问的ip默认不写的话是只能本地127.0.0.1访问server_port参数指定web服务端口share代表是否让huggingface给你生成一个公网地址别人能通过该公网地址直接访问。默认只能使用72小时。 7. 结果 五补充
还可以通过命令行窗口交互运行python cli_demo.py文件
nohup python cli_demo.py 通过模型生成post接口供其余后台应用直接调用
nohup python api.py 欢迎关注我的公众号