当前位置: 首页 > news >正文

报送举报网站建设情况小程序开发平台打不了字

报送举报网站建设情况,小程序开发平台打不了字,微做网站,开发工具选项卡在哪ChatGLM-6B 和 ChatGLM2-6B都是基于 General Language Model (GLM) 架构的对话语言模型#xff0c;是清华大学 KEG 实验室和智谱 AI 公司于 2023 年共同发布的语言模型。模型有 62 亿参数#xff0c;一经发布便受到了开源社区的欢迎#xff0c;在中文语义理解和对话生成上有…ChatGLM-6B 和 ChatGLM2-6B都是基于 General Language Model (GLM) 架构的对话语言模型是清华大学 KEG 实验室和智谱 AI 公司于 2023 年共同发布的语言模型。模型有 62 亿参数一经发布便受到了开源社区的欢迎在中文语义理解和对话生成上有着不凡的表现。 ChatGLM-6B 可以在消费级的显卡上进行本地部署INT4 量化级别下最低只需 6GB 显存。ChatGLM-6B 针对中文问答和对话进行了优化经过约 1T 标识符的中英双语训练辅以监督微调、反馈自助、人类反馈强化学习等技术的加持已经能生成相当符合人类偏好的回答。 ChatGLM2-6B 则是开源中英双语对话模型 ChatGLM-6B 的第二代版本在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上ChatGLM2-6B 引入了如下新特性 更强大的性能基于 ChatGLM 初代模型的开发经验全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数经过了 1.4T 中英标识符的预训练与人类偏好对齐训练评测结果显示相比于初代模型ChatGLM2-6B 在 MMLU23%、CEval33%、GSM8K571% 、BBH60%等数据集上的性能取得了大幅度的提升在同尺寸开源模型中具有较强的竞争力。 更长的上下文基于 FlashAttention 技术将基座模型的上下文长度Context Length由 ChatGLM-6B 的 2K 扩展到了 32K并在对话阶段使用 8K 的上下文长度训练允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限会在后续迭代升级中则有望进行优化。 更高效的推理基于 Multi-Query Attention 技术ChatGLM2-6B 有更高效的推理速度和更低的显存占用在官方的模型实现下推理速度相比初代提升了 42%INT4 量化下6G 显存支持的对话长度由 1K 提升到了 8K。 目前 ChatGLM-6B 以及 ChatGLM2-6B 均可通过登记进行商用为方便大家使用矩池云已第一时间获取到相关权限并上线了这两个模型的镜像后续也会根据模型更新而进行镜像迭代以下是在矩池云上使用 ChatGLM2-6B 的方法ChatGLM-6B 的使用方法与其一致。 硬件要求 矩池云已经配置好了 ChatGLM-6B 和 ChatGLM2-6B 环境显存需要大于13G。可以选择 A4000、P100、3090 或更高配置的显卡。 租用机器 在矩池云主机市场https://matpool.com/host-market/gpu选择显存大于13G的机器比如 A4000 显卡然后点击租用按钮选择其他满足显存要求的显卡也可以。 租用页面搜索 ChatGLM2-6B选择这个镜像再点击租用即可。 机器租用成功后你会看到 8000 端口对应链接这是 ChatGLM2-6B 默认的 api 接口镜像已经设置了开机自启也就是说现在可以直接调用这个接口使用 ChatGLM2-6B 了。 使用 ChatGLM2-6B api 调用 ChatGLM2-6B api 需要发送 POST 请求。前面租用机器我们自定义了 8000 端口在租用页面可以获得对应的公网链接比如https://hz.xxxx.com:xxxx/?tokenxxxxx 需要注意实际我们请求不需要 token所以直接用https://hz.xxxx.com:xxxx 这段即可。 curl请求 curl -X POST https://hz.xxxx.com:xxxx \-H Content-Type: application/json \-d {prompt: 你好, history: []}Python请求 import requests import json def getGLM(prompt, history):curl -X POST https://hz.xxxx.com:xxxx \-H Content-Type: application/json \-d {prompt: 你好, history: []}url https://hz.xxxx.com:xxxx# 设置请求头headers {Content-Type: application/json}data {prompt: prompt,history: history}# 发送请求并获取响应response requests.post(url, headersheaders, datajson.dumps(data))# 检查响应状态码if response.status_code 200:# 获取响应数据rsp response.json()return rspelse:print(请求失败状态码, response.status_code)# 测试请求 history[] prompt 假设你是一位Python高手请用Python Pandas 模块实现一个Excel文件批量合并脚本 getGLM(prompt, history)A4000 回复复杂点的问题回复字数1.5k左右耗时 20-40s 左右。 ChatGLM2-6B 也有 web demo大家也可以运行测试具体的使用方法如下文。 运行 ChatGLM2-6B web demo 首先我们需要 kill 掉系统开启自启的 ChatGLM2-6B API 服务Jupyterlab 里新建一个 Terminal然后输入下面指令查看api服务器进程id。 ps aux | grep api.pykill 掉相关进程从上面运行结果可以看出api.py 进程id是5869执行下面指令即可 kill 相关进程 # 注意 5869 换成你自己租用服务器里查出来的 api.py 程序的进程id # 注意 5869 换成你自己租用服务器里查出来的 api.py 程序的进程id # 注意 5869 换成你自己租用服务器里查出来的 api.py 程序的进程id kill 5869运行 ChatGLM2-6B 版本 运行 # 进入项目目录 cd /ChatGLM2-6B # 安装依赖 pip install streamlit streamlit_chat # 启动脚本 streamlit run web_demo2.py --server.port 8000 --server.address 0.0.0.0运行后服务会启动到 8000端口host 设置成0.0.0.0这样我们访问租用页面 8000 端口链接即可访问到对应服务了。 前面租用机器我们自定义了 8000 端口在租用页面可以获得对应的公网链接 比如https://hz.xxxx.com:xxxx/?tokenxxxxx 需要注意的是实际上我们在请求时候不需要 token所以使用的地址直接用https://hz.xxxx.com:xxxx 这段即可。 浅尝试一下生成的效果还不错这个问题的回答有点出乎意料给了一个用 pygame 写的猜数游戏其他的一些模型一般回复的内容都是 cmd 版本的。
http://www.w-s-a.com/news/538255/

相关文章:

  • 赛罕区城乡建设局网站什么是新媒体运营
  • 松原企业网站建设设计素材网排名
  • 网站建设是那个行业广东公司排名
  • 制作网站要多少钱seo是如何优化
  • 求个网站2020急急急做金融网站拘留多久
  • 网站后台管理系统怎么进seo网络推广外包公司
  • 中山市 做网站网站建设如何上传文件
  • 网站呢建设公众号制作要求
  • 网站备案证明在自己电脑上做网站
  • 沈阳旅游团购网站建设怎么制作网站搜索窗口
  • 做化学合成的网站有哪些枣庄住房和城乡建设局网站
  • 天猫优惠券网站怎么做的网络连接
  • 保定网站建设多少钱公司网页网站建设+ppt模板下载
  • 用户上传商品网站用什么做建设跳转公积金网站
  • 买程序的网站上海市网站建设公司
  • 南通网站建设排名公司哪家好wordpress网站图片迁移
  • 河南省汝州文明建设门户网站博客网站建设源码
  • 单位建设网站的请示手机移动端网站案例
  • 国内做网站的企业网站结构有哪些类型
  • 南通网站建设制作公司苏州好的网站公司名称
  • 咸阳做网站开发公司哪家好珠海公司制作网站
  • 深圳网站建设好不好医疗网站前置审批
  • 做ic什么网站好安溪网站建设
  • 网站建设 慕课企业文化标语经典
  • 做短视频的网站都有哪些简约 时尚 高端 网站建设
  • 浦口区网站建设售后服务建设一个网站多少钱
  • 做个小网站大概多少钱广州h5网站
  • 360免费建站视频wordpress标签显示图片
  • 创建简易个人网站国外做网站被动收入
  • 轻定制网站建设网页培训哪个机构好