用python做的网站,威海优化公司,wordpress 2.0 下载地址,仿牌外贸网站推广今天尝试在pycharm上接入了本地部署的deepseek#xff0c;实现了AI编程#xff0c;体验还是很棒的。下面详细叙述整个安装过程。
本次搭建的框架组合是 DeepSeek-r1:1.5b/7b Pycharm专业版或者社区版 Proxy AI#xff08;CodeGPT#xff09;
首先了解不同版本的deepsee…今天尝试在pycharm上接入了本地部署的deepseek实现了AI编程体验还是很棒的。下面详细叙述整个安装过程。
本次搭建的框架组合是 DeepSeek-r1:1.5b/7b Pycharm专业版或者社区版 Proxy AICodeGPT
首先了解不同版本的deepseek区别 deepseek-r1 根据DeepSeek 系列模型选择 - AI 智算产品文档 一般情况下我们选择安装deepseek-r1:1.5b或者7b可以支持我们普通配置消费级显卡或者无显卡的电脑、笔记本适合个人开发者或者边缘计算设备。
接下来我们具体开始安装本地版deepseek. 1. 安装pycharm: https://www.jetbrains.com/pycharm/ 可以装专业版Professional或者社区版Community均可以。 2. 下载安装ollama (https://ollama.com/download )
windows版本直接下载安装即可傻瓜式安装很简单。linux稍微复杂一些。下面着重谈一下linux以ubuntu为例的安装。 如果网络比较流畅可以直接用官方提供的命令行快速安装。我自己尝试了以后发现网络不太行下载很缓慢所以就采取了手动安装。注意linux要求有root权限。 2.1 下载并解压与操作系统匹配的安装包 首先进入到某一个下载目录自定义哪里都行然后执行下面的命令
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
如果第一行代码下载缓慢可以直接从浏览器下载下载地址为https://ollama.com/download/ollama-linux-amd64.tgz 然后将其上传到上面的自定义目录中最后运行第二行代码将其解压到/usr目录中。 2.2 启动 Ollama并验证 输入以下命令启动 Ollama
ollama serve
另开启一个终端输入以下命令验证ollama是否运行成功
ollama -v
2.3 将 Ollama 添加为自启动服务推荐这样每次登陆服务器就可以自启动了不需要每次都手动地开启服务 首先为 Ollama 创建用户和组
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
然后在该位置/etc/systemd/system/ollama.service 创建服务文件 具体步骤为 a. 输入以下命令以使用 vim 打开或创建服务文件
sudo vim /etc/systemd/system/ollama.service
b. 进入插入模式编辑文件
c. 在 Vim 编辑器中拷贝输入以下内容 拷贝下面内容然后粘贴到上述vim编辑器中即可。
[Unit]
DescriptionOllama Service
Afternetwork-online.target[Service]
ExecStart/usr/bin/ollama serve
Userollama
Groupollama
Restartalways
RestartSec3
EnvironmentPATH$PATH[Install]
WantedBydefault.target
d. 保存并退出 Vim
e. 验证文件是否保存成功 为了确保文件已正确保存可以查看文件内容
cat /etc/systemd/system/ollama.service
f. 重新加载 systemd 配置 让 systemd 识别新创建的服务文件
sudo systemctl daemon-reload
g. 启动并启用服务 启动 Ollama 服务并设置为开机自启
sudo systemctl start ollama.service
sudo systemctl enable ollama.service
h. 检查服务状态 验证服务是否正在运行
sudo systemctl status ollama.service
你应该看到类似以下的输出表示服务正在运行 3. 下载deepseek-r1:1.5b 、deepseek-r1:7b https://ollama.com/library/deepseek-r1 打开windows cmd命令行或者linux命令行输入:
ollama run deepseek-r1:1.5b
即可下载DeepSeek-R1-Distill-Qwen-1.5B到自己的电脑上。
输入
ollama run deepseek-r1:7b
即可下载DeepSeek-R1-Distill-Qwen-7B到自己的电脑上。
默认模型保存位置如下
macOS: ~/.ollama/modelsLinux: /usr/share/ollama/.ollama/modelsWindows: C:\Users\%username%\.ollama\models
下载安装后可以进入命令行中进行验证
4. 加入deepseek到pycharm中 1启动 PyCharm 客户端点击左侧导航栏中的Plugins进入 Maeketplace在搜索框中输入 Proxy AI内含CodeGPT查找相应扩展应用并点击安装。
2选择已安装页签可查看到Proxy AI插件显示在列。
3) 在pycharm中创建一个python工程我的版本是pycharm 2023.3.7有的高级版本可能直接在刚才的首页就可以找到后面所要的东西请自己尝试然后点击 PyCharm 主界面选择File按钮, 点击Settings按钮。在弹出的窗口中选择Tools CodeGPT Providers。 4) 找到Ollama(Local)选择刚刚安装的deepseek-r1:1.5b点击OK就可以了
5) 完成上述操作后就可以愉快的在PyCharm中使用DeepSeek-r1实现AI编程学习了左侧是代码编辑界面右侧是r1大模型直接对话式提问省去了来回不同页面折腾的麻烦 大家可以自行感受一下DeepSeek-r1:1.5b大模型的回复延时几乎1~2秒钟就可以响应效果还算可以。
另外CodeGPT插件显示了Tokens数只是一个数字统计无任何费用因为使用的是本地自己电脑的算力哦。 参考文献 1. 超详细DeepSeek 接入PyCharm实现AI编程支持本地部署DeepSeek及官方DeepSeek接入建议收藏 - 狂师 - 博客园
2. PyCharm接入本地DeepSeek R1实现AI编程 - 久曲健 - 博客园
3. Ubuntu 环境安装和使用Ollama_3ubuntu ollama phi-CSDN博客
4. 在 PyCharm 中使用 - AI 智算产品文档
5. Ollama 安装与配置 - Linux 系统篇 【推荐看这个和英文版一样的】
6. Ollama 安装与配置 - Linux 系统篇-官方英文版教程