当前位置: 首页 > news >正文

试客网站 源码做原创的网站

试客网站 源码,做原创的网站,长沙网站建设服务商,好建网站LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一#xff1a; 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建…LLAMA2在不同系统上运行的结果 LLAMA2 在windows 上运行的结果 LLAMA2 在Mac上运行的结果 安装Llama2的不同方法 方法一 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 通过conda 创建或者venv. 下面是通过conda 创建的。 conda create --name llama_test python3.9 conda activate llama_test 安装python依赖的包 pip3 install -r requirements.txt 编译llama.cpp mac LLAMA_METAL1 make windows , 用powershell 运行 make 下载llama2模型 直接在huggingface里下载量化了的 gguf格式的llama2模型。 https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGUF/tree/main 我下载的是llama-2-7b-chat.Q4_0.gguf 拷贝llama-2-7b-chat.Q4_0.gguf 到llama.cpp目录里的models目录里 运行模型 如果是windows要用powershell ./main -m ./models/llama-2-7b-chat.Q4_0.gguf --color --ctx_size 2048 -n -1 -ins -b 256 --top_k 10000 --temp 0.2 --repeat_penalty 1.1 -t 8 方法二 Meta已将llama2开源任何人都可以通过在meta ai上申请并接受许可证、提供电子邮件地址来获取模型。 Meta 将在电子邮件中发送下载链接。 下载llama2  获取download.sh文件将其存储在mac上打开mac终端执行 chmod x ./download.sh 赋予权限。运行 ./download.sh 开始下载过程复制电子邮件中的下载链接粘贴到终端仅下载13B-chat 安装系统依赖的东西 必须安装 Xcode 才能编译 C 项目。 如果您没有请执行以下操作 xcode-select --install 接下来安装用于构建 C 项目的依赖项。 brew install pkgconfig cmake最后我们安装 Torch。 如果您没有安装python3请通过以下方式安装 brew install python3.11 像这样创建一个虚拟环境 /opt/homebrew/bin/python3.11 -m venv venv 激活 venv。 source venv/bin/activate 安装 PyTorch: pip install --pre torch torchvision --extra-index-url https://download.pytorch.org/whl/nightly/cpu 编译 llama.cpp 克隆 llama.cpp git clone https://github.com/ggerganov/llama.cpp.git 安装python依赖包 pip3 install -r requirements.txt 编译 LLAMA_METAL1 make 如果你有两个arch (x86_64, arm64), 可以用下面指定arm64 arch -arm64 make 将下载的 13B 移至 models 文件夹下的 llama.cpp 项目。 将模型转换为ggml格式 13B和70B是不一样的。 Convert-pth-to-ggml.py 已弃用请使用 Convert.py 代替 13B-chat python3 convert.py --outfile ./models/llama-2-13b-chat/ggml-model-f16.bin --outtype f16 ./models/llama-2-13b-chat Quantize 模型: In order to run these huge LLMs in our small laptops we will need to reconstruct and quantize the model with the following commands, here we will convert the model’s weights from float16 to int4 requiring less memory to be executed and only losing a little bit of quality in the process. 13B-chat: ./quantize ./models/llama-2-13b-chat/ggml-model-f16.bin ./models/llama-2-13b-chat/ggml-model-q4_0.bin q4_0 运行模型 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -r ### Question: -p ### Question: 您可以使用 -ngl 1 命令行参数启用 GPU 推理。 任何大于 0 的值都会将计算负载转移到 GPU。 例如 ./main -m ./models/llama-2-13b-chat/ggml-model-q4_0.bin -t 4 -c 2048 -n 2048 --color -i -ngl 1 -r ### Question: -p ### Question: 在我的 Mac 上测试时它比纯 cpu 快大约 25%。 其它 ggml格式的llama2 如果你下载的是ggml格式的 要运行下面命令转换格式 python convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin (llama) C:\Users\Harry\PycharmProjects\llama.cpppython convert-llama-ggml-to-gguf.py --eps 1e-5 -i ./models/llama-2-13b-chat.ggmlv3.q4_0.bin -o ./models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin * Using config: Namespace(inputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.bin), outputWindowsPath(models/llama-2-13b-chat.ggmlv3.q4_0.gguf.bin), nameNone, descNone, gqa1, eps1e-5, context_length2048, model_metadata_dirNone, vocab_dirNone, vocabtypespm) WARNING Be aware that this conversion script is best-effort. Use a native GGUF model if possible. WARNING - Note: If converting LLaMA2, specifying --eps 1e-5 is required. 70B models also need --gqa 8. * Scanning GGML input file * File format: GGJTv3 with ftype MOSTLY_Q4_0 * GGML model hyperparameters: Hyperparameters: n_vocab32000, n_embd5120, n_mult256, n_head40, n_layer40, n_rot128, n_ff13824, ftypeMOSTLY_Q4_0 WARNING Special tokens may not be converted correctly. Use --model-metadata-dir if possible WARNING * Preparing to save GGUF file This gguf file is for Little Endian only * Adding model parameters and KV items * Adding 32000 vocab item(s) * Adding 363 tensor(s)gguf: write headergguf: write metadatagguf: write tensors * Successful completion. Output saved to: models\llama-2-13b-chat.ggmlv3.q4_0.gguf.bin 参考资料 GitHub - facebookresearch/llama: Inference code for LLaMA models A comprehensive guide to running Llama 2 locally – Replicate
http://www.w-s-a.com/news/245726/

相关文章:

  • 用网站模板做网站动漫制作专业学校前十名
  • 网页 代码怎么做网站网站建设与维护课程设计
  • 网站制作哪家公司好企业名录联系电话
  • 做的网站怎么上传到网上wordpress图片之间空一行
  • 腾讯云建设网站视频vi报价单
  • 个人网站发布怎么做建设银行网站收款怎么打明细
  • 网站整体色调网站建设都有什么类型
  • 比较简洁大方的网站软件工程四大方向
  • 大家称赞的网站建设常德小学报名网站
  • 做网站怎么建文件夹百度网盘搜索神器
  • 企业有域名怎么做网站淘宝推广平台
  • 学网站开发去哪学药品销售推广方案
  • 哔哩哔哩h5播放器深圳网站seo外包公司哪家好
  • asp做的手机网站wordpress 文章title
  • 网站验证码目录wordpress内嵌播放器
  • 文明网网站建设南昌市建设规费标准网站
  • 安康有建网站的公司吗做网站用什么网名好
  • 济南网站制作哪家专业西安市城乡建设网官方网站
  • 网站建设有趣小游戏怎样让网站优化的方式
  • 昭通做网站儿童编程教学入门教程
  • eclipse静态网站开发软文广告投放平台
  • 网站建设教学视频济南做网站需要多少钱
  • 网站免费做软件市工商联官方网站建设方案
  • 网站建设大体包含英铭长沙网站建设
  • 网站建设培训学校北京如何搜索网站
  • discuz论坛模板哪些网站容易做seo优化
  • 渭南公司做网站网站建设互联网推广
  • 公司网站app怎么做杭州建设局网站
  • 网站开发需要自己写代码吗12306网站多少钱做的
  • 策勒网站建设四川建设网有限责任公司招聘