当前位置: 首页 > news >正文

用python做的网站威海优化公司

用python做的网站,威海优化公司,wordpress 2.0 下载地址,仿牌外贸网站推广今天尝试在pycharm上接入了本地部署的deepseek#xff0c;实现了AI编程#xff0c;体验还是很棒的。下面详细叙述整个安装过程。 本次搭建的框架组合是 DeepSeek-r1:1.5b/7b Pycharm专业版或者社区版 Proxy AI#xff08;CodeGPT#xff09; 首先了解不同版本的deepsee…今天尝试在pycharm上接入了本地部署的deepseek实现了AI编程体验还是很棒的。下面详细叙述整个安装过程。 本次搭建的框架组合是 DeepSeek-r1:1.5b/7b Pycharm专业版或者社区版  Proxy AICodeGPT 首先了解不同版本的deepseek区别 deepseek-r1 根据DeepSeek 系列模型选择 - AI 智算产品文档 一般情况下我们选择安装deepseek-r1:1.5b或者7b可以支持我们普通配置消费级显卡或者无显卡的电脑、笔记本适合个人开发者或者边缘计算设备。 接下来我们具体开始安装本地版deepseek. 1. 安装pycharm: https://www.jetbrains.com/pycharm/ 可以装专业版Professional或者社区版Community均可以。 2. 下载安装ollama (https://ollama.com/download ) windows版本直接下载安装即可傻瓜式安装很简单。linux稍微复杂一些。下面着重谈一下linux以ubuntu为例的安装。 如果网络比较流畅可以直接用官方提供的命令行快速安装。我自己尝试了以后发现网络不太行下载很缓慢所以就采取了手动安装。注意linux要求有root权限。 2.1 下载并解压与操作系统匹配的安装包 首先进入到某一个下载目录自定义哪里都行然后执行下面的命令 curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz sudo tar -C /usr -xzf ollama-linux-amd64.tgz 如果第一行代码下载缓慢可以直接从浏览器下载下载地址为https://ollama.com/download/ollama-linux-amd64.tgz 然后将其上传到上面的自定义目录中最后运行第二行代码将其解压到/usr目录中。 2.2 启动 Ollama并验证 输入以下命令启动 Ollama ollama serve 另开启一个终端输入以下命令验证ollama是否运行成功 ollama -v 2.3 将 Ollama 添加为自启动服务推荐这样每次登陆服务器就可以自启动了不需要每次都手动地开启服务 首先为 Ollama 创建用户和组 sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama sudo usermod -a -G ollama $(whoami) 然后在该位置/etc/systemd/system/ollama.service 创建服务文件 具体步骤为 a. 输入以下命令以使用 vim 打开或创建服务文件 sudo vim /etc/systemd/system/ollama.service b. 进入插入模式编辑文件 c. 在 Vim 编辑器中拷贝输入以下内容   拷贝下面内容然后粘贴到上述vim编辑器中即可。 [Unit] DescriptionOllama Service Afternetwork-online.target[Service] ExecStart/usr/bin/ollama serve Userollama Groupollama Restartalways RestartSec3 EnvironmentPATH$PATH[Install] WantedBydefault.target d. 保存并退出 Vim e. 验证文件是否保存成功 为了确保文件已正确保存可以查看文件内容 cat /etc/systemd/system/ollama.service f. 重新加载 systemd 配置 让 systemd 识别新创建的服务文件 sudo systemctl daemon-reload g. 启动并启用服务 启动 Ollama 服务并设置为开机自启 sudo systemctl start ollama.service sudo systemctl enable ollama.service h. 检查服务状态 验证服务是否正在运行 sudo systemctl status ollama.service 你应该看到类似以下的输出表示服务正在运行 3. 下载deepseek-r1:1.5b 、deepseek-r1:7b https://ollama.com/library/deepseek-r1 打开windows cmd命令行或者linux命令行输入: ollama run deepseek-r1:1.5b 即可下载DeepSeek-R1-Distill-Qwen-1.5B到自己的电脑上。 输入 ollama run deepseek-r1:7b 即可下载DeepSeek-R1-Distill-Qwen-7B到自己的电脑上。 默认模型保存位置如下 macOS: ~/.ollama/modelsLinux: /usr/share/ollama/.ollama/modelsWindows: C:\Users\%username%\.ollama\models 下载安装后可以进入命令行中进行验证 4. 加入deepseek到pycharm中 1启动 PyCharm 客户端点击左侧导航栏中的Plugins进入 Maeketplace在搜索框中输入 Proxy AI内含CodeGPT查找相应扩展应用并点击安装。 2选择已安装页签可查看到Proxy AI插件显示在列。 3) 在pycharm中创建一个python工程我的版本是pycharm 2023.3.7有的高级版本可能直接在刚才的首页就可以找到后面所要的东西请自己尝试然后点击 PyCharm 主界面选择File按钮, 点击Settings按钮。在弹出的窗口中选择Tools  CodeGPT  Providers。 4) 找到Ollama(Local)选择刚刚安装的deepseek-r1:1.5b点击OK就可以了 5) 完成上述操作后就可以愉快的在PyCharm中使用DeepSeek-r1实现AI编程学习了左侧是代码编辑界面右侧是r1大模型直接对话式提问省去了来回不同页面折腾的麻烦 大家可以自行感受一下DeepSeek-r1:1.5b大模型的回复延时几乎1~2秒钟就可以响应效果还算可以。 另外CodeGPT插件显示了Tokens数只是一个数字统计无任何费用因为使用的是本地自己电脑的算力哦。 参考文献 1. 超详细DeepSeek 接入PyCharm实现AI编程支持本地部署DeepSeek及官方DeepSeek接入建议收藏 - 狂师 - 博客园 2. PyCharm接入本地DeepSeek R1实现AI编程 - 久曲健 - 博客园 3. Ubuntu 环境安装和使用Ollama_3ubuntu ollama phi-CSDN博客 4. 在 PyCharm 中使用 - AI 智算产品文档 5. Ollama 安装与配置 - Linux 系统篇 【推荐看这个和英文版一样的】 6.  Ollama 安装与配置 - Linux 系统篇-官方英文版教程
http://www.w-s-a.com/news/250951/

相关文章:

  • 论坛类网站建设遵义网站制作外包
  • vps服务器购买网站小视频做网站怎么赚钱
  • 网站用图片wordpress同步发布
  • 织梦图片自适应网站源码网页美工的设计要点
  • 渝快办官方网站wordpress产品图片怎么改
  • 高端网站特色深圳建网站哪
  • 宝塔搭建网站软文小故事200字
  • 公司网站设计免费虚拟主机网站源码
  • 怎样做好网站用户体验申请网站空间
  • 网站建设优化公司招聘福州网站建设思企
  • 设计网站会员wordpress rss聚合
  • 网站建设过程中的收获html5官方网站开发流程
  • 网站建设-信科网络h5美食制作网站模板下载
  • 聊城九洲建设有限公司网站师大暨大网站建设
  • 烟台网站建设学校潍坊市建设监理协会网站
  • 大良营销网站建设资讯建设厅网站总经济师是干什么的
  • 网站优化推广软件网站制作公司dedecms
  • 在哪一个网站做社保申报百度小程序开发平台
  • 东莞网站建设_东莞网页设计网站色调代号
  • 濮阳住房和城乡建设部网站给别人做ppt的网站
  • 电子商务网站建设规划心得广告投放媒体
  • 淘宝店铺购买价格宝应百度seo
  • 同一虚拟主机 2个网站如果网站设计时
  • 网站维护的协议做网站 需要 域名 空间
  • 高安建站公司济宁哪里做网站最便宜
  • 南宁建站免费模板简单的html网页设计
  • 吉林省建设 安全 网站沐风seo
  • 自己做捕鱼网站能不能挣钱软件开发公司需要什么硬件设备
  • 大连设计网站公司3小说网站开发
  • 建设环保网站查询系统网站建设168