学校校园网站,宁波网站怎么建设,管理咨询公司组织架构,怎样在百度上注册自己的店铺近期#xff0c;我国一款开源模型 DeepSeek-R1以低成本和高性能震撼了全球科技界。该模型的开源性使开发者能够在本地环境中部署和运行#xff0c;提供了更高的灵活性和控制力。如果你也想在本地部署 DeepSeek-R1#xff0c;可以参考以下完整的教程#xff0c;涵盖Mac 版本…近期我国一款开源模型 DeepSeek-R1以低成本和高性能震撼了全球科技界。该模型的开源性使开发者能够在本地环境中部署和运行提供了更高的灵活性和控制力。如果你也想在本地部署 DeepSeek-R1可以参考以下完整的教程涵盖Mac 版本的安装、优化以及 API 调用。
1. 引言
1.1 什么是 DeepSeek-R1
DeepSeek-R1 是由中国初创公司 DeepSeek 开发的开源人工智能模型专注于增强推理能力。 其独特之处在于主要通过强化学习进行训练无需大量的监督微调数据。 在数学、代码生成和自然语言推理等任务中DeepSeek-R1 展现了卓越的性能。
与其他同类模型相比DeepSeek-R1 具有以下优势 高效的训练方法采用纯强化学习策略显著提升了模型的推理能力。 开源与可定制性遵循 MIT 许可证开源允许用户自由使用、修改和商用并支持通过蒸馏技术训练其他模型提供了高度的灵活性。 中文能力与其他模型相比DeepSeek-R1 在中文处理能力方面表现出色尤其在古文和历史研究领域其处理和推理能力尤为突出。 在中文任务的基准测试如 C-Eval中DeepSeek-R1 的表现也显著优于其他开源模型。
1.2 为什么选择 Ollama 进行本地部署 一键安装无需复杂环境配置相比 transformers llama.cpp。 高效量化支持 FP16、GGUF 格式减少显存占用。
1.3 适用人群 需要本地运行大模型的开发者。 AI 研究人员或爱好者想要低成本测试 LLM。 需要离线 AI 处理任务的用户。
2. 环境要求
2.1 硬件要求
根据运行模型的参数量大小对于硬件配置有不同的要求请根据个人主机配置选取对应的模型。以下表格指的是推荐配置实际的运行稳定性会根据主机后台运行的其他进程和资源占用情况波动比如博主使用11C36GB的Mac部署了32B参数的DeepSeek仍然能够正常使用。
注Apple Silicon芯片因GPU与CPU共享内存因此不需要额外的显存 模型版本 参数量 CPU 内存 DeepSeek-R1-1.5B 15亿 2C 8GB DeepSeek-R1-7B 70亿 4C 16GB DeepSeek-R1-8B 80亿 4C 16GB DeepSeek-R1-14B 140亿 4C 32GB DeepSeek-R1-32B 320亿 6C 64GB DeepSeek-R1-70B 700亿 8C 128GB
2.2 软件要求 macOS 13Apple Silicon 原生支持
3. 安装并启动 Ollama
3.1 安装 打开终端工具使用 Homebrew 安装输入命令如下
brew install ollama
3.3 启动Ollama 点击应用图标启动启动完成后可以在主机菜单栏中看到一只羊驼的logo 使用命令启动命令如下
ollama serve
启动后能够看到ollama的启动日志 注上述两种启动方式建议只使用一种因为ollama进程会占用主机的11434端口如果通过点击应用图标启动后再使用命令启动的话命令启动的进程就会因为端口号已经被占用而导致启动失败报错信息如下图所示 4. 运行 DeepSeek-R1
4.1 运行 DeepSeek-R1
DeepSeek-R1的模型在ollama中的名称就是deepseek-r1可以使用deepseek-r1:{参数量}的格式选取指定参数量的模型比如博主运行的是32B参数量的模型命令就是
ollama run deepseek-r1:32b
其他参数量的模型运行示例如下
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
如果是第一次运行该模型则ollama会先下载所需的文件下载完成后会自动运行一切正常的话终端将进入交互模式启动过程如下图所示 4.2 本地体验 DeepSeek-R1模型
运行成功后即可体验模型可以通过终端工具与模型进行对话运行结果如下图所示 在模型给出的回答中think和/think符号中的文本是模型的思考过程可以让用户看到模型在回答问题时考虑到的各个方面以便让用户对后面的提问进行查漏补缺。
5. 通过 API 调用
5.1 使用 cURL 调用
curl -X POST http://localhost:11434/api/generate -d {model: deepseek-r1:32b,prompt: 你是谁,stream: false
}
上述命令中model参数指的是使用ollama所运行的模型博主使用的是32b模型所以参数是deepseek-r1:32bprompt参数的值就是你所想问的问题大家注意根据自己的需要进行提问调用返回的结果中会有一些其他参数如时间、上下文、token信息等在使用ollama客户端体验模型时ollama客户端自动处理了这些参数在使用curl调用的时候这些参数就会都展示出来调用结果如下图所示 5.2 使用 Python 调用 DeepSeek-R1
import requests
import jsonOLLAMA_API_URL http://localhost:11434/api/generatepayload {model: deepseek-r1:32b,prompt: 你是谁,stream: False
}response requests.post(OLLAMA_API_URL, datajson.dumps(payload))if response.status_code 200:result response.json()print(模型输出, result.get(response, 未获取到结果))
else:print(请求失败状态码, response.status_code, 错误信息, response.text)
运行结果如下图所示 5.3 Web交互
如果你想用更友好的界面可以安装 text-generation-webui具体命令如下
git clone https://github.com/oobabooga/text-generation-webui
cd text-generation-webui
pip install -r requirements.txt
python server.py --model deepseek-r1:32b
然后打开浏览器访问 http://localhost:7860 进行交互。
6. 结语
通过 Ollama 部署 DeepSeek-R1可以快速在本地运行强大的大模型适用于 AI 研究、代码生成、知识问答等任务。本教程提供的从 安装、运行、优化到 API 调用 的完整流程希望对你有所帮助