当前位置: 首页 > news >正文

中国建设银行行网站网站流量统计

中国建设银行行网站,网站流量统计,织梦模板修改网站颜色,给网站做蜘蛛抓取项目设计集合#xff08;人工智能方向#xff09;#xff1a;助力新人快速实战掌握技能、自主完成项目设计升级#xff0c;提升自身的硬实力#xff08;不仅限NLP、知识图谱、计算机视觉等领域#xff09;#xff1a;汇总有意义的项目设计集合#xff0c;助力新人快速实… 项目设计集合人工智能方向助力新人快速实战掌握技能、自主完成项目设计升级提升自身的硬实力不仅限NLP、知识图谱、计算机视觉等领域汇总有意义的项目设计集合助力新人快速实战掌握技能助力用户更好利用 CSDN 平台自主完成项目设计升级提升自身的硬实力。 专栏订阅项目大全提升自身的硬实力 [专栏详细介绍项目设计集合人工智能方向助力新人快速实战掌握技能、自主完成项目设计升级提升自身的硬实力不仅限NLP、知识图谱、计算机视觉等领域 ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型 1.ChatGLM3简介 ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上ChatGLM3-6B 引入了如下特性 更强大的基础模型 ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。更完整的功能支持 ChatGLM3-6B 采用了全新设计的 Prompt 格式除正常的多轮对话外。同时原生支持工具调用Function Call、代码执行Code Interpreter和 Agent 任务等复杂场景。更全面的开源序列 除了对话模型 ChatGLM3-6B 外还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放在填写问卷进行登记后亦允许免费商业使用。 ChatGLM3 开源模型旨在与开源社区一起推动大模型技术发展恳请开发者和大家遵守开源协议勿将开源模型和代码及基于开源项目产生的衍生物用于任何可能给国家和社会带来危害的用途以及用于任何未经过安全评估和备案的服务。目前本项目团队未基于 ChatGLM3 开源模型开发任何应用包括网页端、安卓、苹果 iOS 及 Windows App 等应用。 尽管模型在训练的各个阶段都尽力确保数据的合规性和准确性但由于 ChatGLM3-6B 模型规模较小且模型受概率随机性因素影响无法保证输出内容的准确。同时模型的输出容易被用户的输入误导。本项目不承担开源模型和代码导致的数据安全、舆情风险或发生任何模型被误导、滥用、传播、不当利用而产生的风险和责任。 1.1 模型列表 ModelSeq LengthDownloadChatGLM3-6B8kHuggingFace | ModelScopeChatGLM3-6B-Base8kHuggingFace | ModelScopeChatGLM3-6B-32K32kHuggingFace | ModelScope 对 ChatGLM3 进行加速的开源项目 chatglm.cpp: 类似 llama.cpp 的量化加速推理方案实现笔记本上实时对话ChatGLM3-TPU: 采用TPU加速推理方案在算能端侧芯片BM1684X16TFP16内存16G上实时运行约7.5 token/s 1.2评测结果 1.2.1 典型任务 我们选取了 8 个中英文典型数据集在 ChatGLM3-6B (base) 版本上进行了性能测试。 ModelGSM8KMATHBBHMMLUC-EvalCMMLUMBPPAGIEvalChatGLM2-6B-Base32.46.533.747.951.750.0--Best Baseline52.113.145.060.163.562.247.545.8ChatGLM3-6B-Base72.325.766.161.469.067.552.453.7 Best Baseline 指的是截止 2023年10月27日、模型参数在 10B 以下、在对应数据集上表现最好的预训练模型不包括只针对某一项任务训练而未保持通用能力的模型。 对 ChatGLM3-6B-Base 的测试中BBH 采用 3-shot 测试需要推理的 GSM8K、MATH 采用 0-shot CoT 测试MBPP 采用 0-shot 生成后运行测例计算 Pass1 其他选择题类型数据集均采用 0-shot 测试。 我们在多个长文本应用场景下对 ChatGLM3-6B-32K 进行了人工评估测试。与二代模型相比其效果平均提升了超过 50%。在论文阅读、文档摘要和财报分析等应用中这种提升尤为显著。此外我们还在 LongBench 评测集上对模型进行了测试具体结果如下表所示 Model平均SummarySingle-Doc QAMulti-Doc QACodeFew-shotSyntheticChatGLM2-6B-32K41.524.837.634.752.851.347.7ChatGLM3-6B-32K50.226.645.846.156.261.265 2.快速使用 2.1 环境安装 首先需要下载本仓库 git clone https://github.com/THUDM/ChatGLM3 cd ChatGLM3然后使用 pip 安装依赖 pip install -r requirements.txt其中 transformers 库版本推荐为 4.30.2torch 推荐使用 2.0 及以上的版本以获得最佳的推理性能。 2.2 ChatGLM3 Web Demo 安装 我们建议通过 Conda 进行环境管理。 执行以下命令新建一个 conda 环境并安装所需依赖 conda create -n chatglm3-demo python3.10 conda activate chatglm3-demo pip install -r requirements.txt请注意本项目需要 Python 3.10 或更高版本。 此外使用 Code Interpreter 还需要安装 Jupyter 内核 ipython kernel install --name chatglm3-demo --user运行 运行以下命令在本地加载模型并启动 demo streamlit run main.py之后即可从命令行中看到 demo 的地址点击即可访问。初次访问需要下载并加载模型可能需要花费一定时间。 如果已经在本地下载了模型可以通过 export MODEL_PATH/path/to/model 来指定从本地加载模型。如果需要自定义 Jupyter 内核可以通过 export IPYKERNELkernel_name 来指定。 使用 ChatGLM3 Demo 拥有三种模式 Chat: 对话模式在此模式下可以与模型进行对话。Tool: 工具模式模型除了对话外还可以通过工具进行其他操作。Code Interpreter: 代码解释器模式模型可以在一个 Jupyter 环境中执行代码并获取结果以完成复杂任务。 对话模式 对话模式下用户可以直接在侧边栏修改 top_p, temperature, System Prompt 等参数来调整模型的行为。例如 工具模式 可以通过在 tool_registry.py 中注册新的工具来增强模型的能力。只需要使用 register_tool 装饰函数即可完成注册。对于工具声明函数名称即为工具的名称函数 docstring 即为工具的说明对于工具的参数使用 Annotated[typ: type, description: str, required: bool] 标注参数的类型、描述和是否必须。 例如get_weather 工具的注册如下 register_tool def get_weather(city_name: Annotated[str, The name of the city to be queried, True], ) - str:Get the weather for city_name in the following week...此外你也可以在页面中通过 Manual mode 进入手动模式在这一模式下你可以通过 YAML 来直接指定工具列表但你需要手动将工具的输出反馈给模型。 代码解释器模式 由于拥有代码执行环境此模式下的模型能够执行更为复杂的任务例如绘制图表、执行符号运算等等。模型会根据对任务完成情况的理解自动地连续执行多个代码块直到任务完成。因此在这一模式下你只需要指明希望模型执行的任务即可。 例如我们可以让 ChatGLM3 画一个爱心 额外技巧 在模型生成文本时可以通过页面右上角的 Stop 按钮进行打断。刷新页面即可清空对话记录。 2.3 代码调用 可以通过如下代码调用 ChatGLM 模型来生成对话 from transformers import AutoTokenizer, AutoModeltokenizer AutoTokenizer.from_pretrained(THUDM/chatglm3-6b, trust_remote_codeTrue)model AutoModel.from_pretrained(THUDM/chatglm3-6b, trust_remote_codeTrue, devicecuda)model model.eval()response, history model.chat(tokenizer, 你好, history[])print(response) 你好!我是人工智能助手 ChatGLM3-6B,很高兴见到你,欢迎问我任何问题。response, history model.chat(tokenizer, 晚上睡不着应该怎么办, historyhistory)print(response) 晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。 2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。 3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。 4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。 5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。 6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。从本地加载模型 以上代码会由 transformers 自动下载模型实现和参数。完整的模型实现在 Hugging Face Hub。如果你的网络环境较差下载模型参数可能会花费较长时间甚至失败。此时可以先将模型下载到本地然后从本地加载。 从 Hugging Face Hub 下载模型需要先安装Git LFS然后运行 git clone https://huggingface.co/THUDM/chatglm3-6b如果从你从 HuggingFace 下载比较慢也可以从 ModelScope 中下载。 2.4 模型微调 请参考 ChatGLM3-6B 微调示例。 2.5 网页版对话 Demo 可以通过以下命令启动基于 Gradio 的网页版 demo python web_demo.py可以通过以下命令启动基于 Streamlit 的网页版 demo streamlit run web_demo2.py网页版 demo 会运行一个 Web Server并输出地址。在浏览器中打开输出的地址即可使用。 经测试基于 Streamlit 的网页版 Demo 会更流畅。 2.6 命令行对话 Demo 运行仓库中 cli_demo.py python cli_demo.py程序会在命令行中进行交互式的对话在命令行中输入指示并回车即可生成回复输入 clear 可以清空对话历史输入 stop 终止程序。 LangChain Demo 请参考 基于 LangChain 的工具调用 Demo。 工具调用 关于工具调用的方法请参考 工具调用。 API 部署 可以通过运行仓库中的openai_api.py 进行部署 python openai_api.py进行 API 调用的示例代码为 import openai if __name__ __main__:openai.api_base http://localhost:8000/v1openai.api_key nonefor chunk in openai.ChatCompletion.create(modelchatglm3-6b,messages[{role: user, content: 你好}],streamTrue):if hasattr(chunk.choices[0].delta, content):print(chunk.choices[0].delta.content, end, flushTrue)3.低成本部署 3.1模型量化 默认情况下模型以 FP16 精度加载运行上述代码需要大概 13GB 显存。如果你的 GPU 显存有限可以尝试以量化方式加载模型使用方法如下 model AutoModel.from_pretrained(THUDM/chatglm3-6b,trust_remote_codeTrue).quantize(4).cuda()模型量化会带来一定的性能损失经过测试ChatGLM3-6B 在 4-bit 量化下仍然能够进行自然流畅的生成。 3.2CPU 部署 如果你没有 GPU 硬件的话也可以在 CPU 上进行推理但是推理速度会更慢。使用方法如下需要大概 32GB 内存 model AutoModel.from_pretrained(THUDM/chatglm3-6b, trust_remote_codeTrue).float()3.3 Mac 部署 对于搭载了 Apple Silicon 或者 AMD GPU 的 Mac可以使用 MPS 后端来在 GPU 上运行 ChatGLM3-6B。需要参考 Apple 的 官方说明 安装 PyTorch-Nightly正确的版本号应该是2.x.x.dev2023xxxx而不是 2.x.x。 目前在 MacOS 上只支持从本地加载模型。将代码中的模型加载改为从本地加载并使用 mps 后端 model AutoModel.from_pretrained(your local path, trust_remote_codeTrue).to(mps)加载半精度的 ChatGLM3-6B 模型需要大概 13GB 内存。内存较小的机器比如 16GB 内存的 MacBook Pro在空余内存不足的情况下会使用硬盘上的虚拟内存导致推理速度严重变慢。 3.4 多卡部署 如果你有多张 GPU但是每张 GPU 的显存大小都不足以容纳完整的模型那么可以将模型切分在多张GPU上。首先安装 accelerate: pip install accelerate然后通过如下方法加载模型 from utils import load_model_on_gpus model load_model_on_gpus(THUDM/chatglm3-6b, num_gpus2)即可将模型部署到两张 GPU 上进行推理。你可以将 num_gpus 改为你希望使用的 GPU 数。默认是均匀切分的你也可以传入 device_map 参数来自己指定。 项目参考链接 https://github.com/THUDM/ChatGLM3
http://www.w-s-a.com/news/198505/

相关文章:

  • 网站开发遇到的难题wordpress文章调用
  • 网站建设做的好在线logo免费设计生成器标智客
  • 郑州做网站齿轮网站排名怎么做 site
  • 船员专用网站开发建议wordpress 图片占用id
  • 桌面软件开发跟网站开发那个上海网站备案在哪里查询
  • 罗湖网站建设陕西省建设网官网住房和城乡厅官网
  • 做一个网站的详细教学wordpress 忘记用户名密码
  • 建设银行的网站是多少wordpress添加新页面跳转
  • 网站设计费用抓取网站访客qq号码
  • 驾校视频网站模板郑州网站建设价格
  • 上海 有哪些做网站的公司成都企业网站备案流程
  • 移动端快速建站的方法青海公司网站建设
  • 网站重新搭建程序要多少钱移动互联网应用的使用情况
  • 学建站论坛给别人做网站怎么赚钱吗
  • 响应式网站代码校友会网站建设的目的
  • 北京公司网站网站建设html模板
  • 专门做医疗器械的网站免费网页制作系统团队
  • 网站开发技术 html临夏网站建设
  • flash网站模板免费下载拍卖网站开发多少钱
  • 北京网站建设制作颍州网站建设
  • 网站制作报价表做网站上海公司
  • 简洁大气蓝色文章资讯网站百度搜索广告推广
  • 河南建设工程协会网站网站收银系统建设
  • 网站制作 服务企业网站案例展示
  • 咸宁网站建设wordpress手动降级
  • 昆明做网站建设怎么样做网站赚钱全攻略
  • 企业网站建设实战教程微信如何注册小程序
  • 做一件代发网站百度seo服务
  • 小说网站开发 公司可以做行程的网站
  • 古交市网站建设公司apk连接wordpress