1. 首页 > 游戏攻略

DeepSeek本地部署教程 deepseek本地部署工具

作者:admin 更新时间:2025-03-03
摘要:DeepSeek本地部署教程,DeepSeek本地部署教程 deepseek本地部署工具

 

DeepSeek可以在网页端使用,但是有些时候可能不是很稳定,除了网页端,也能通过本地部署来使用。下面就一起来看看吧

配置要求

  1. Windows 配置
    • 最低要求:NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间
    • 推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD
    • 高性能配置:NVIDIA RTX 3090 24GB 或 AMD RX 7900 XTX 24GB,64GB 内存,200GB NVMe SSD
  2. Mac 配置
    • 最低要求:M2 MacBook Air(8GB 内存)
    • 推荐配置:M2/M3 MacBook Pro(16GB 内存)
    • 高性能配置:M2 Max/Ultra Mac Studio(64GB 内存)

本地部署工具Ollama使用方法

1. 在加速界面可一键下载(windows版本)

2. 安装完成

3. 按Win键输入cmd打开并输入【Ollama】后按下回车,如下图所示即为安装成功;

4. 安装命令如下:安装完成后出现【success】则代表安装成功

1. 内存低于4GB安装命令如下:

ollama run deepseek-r1:1.5b

2. 内存在8GB-12GB安装命令如下:

ollama run deepseek-r1:7b
ollama run deepseek-r1:8b

3.内存在12GB以上安装命令如下:

ollama run deepseek-r1:14b

4.内存在32GB以上安装命令如下:

ollama run deepseek-r1:32b

5.内存在70GB以上安装命令如下:

ollama run deepseek-r1:70b

注意:内存越高,效果越好,但占用储存会更多。

5. 此时我们可以直接在终端下提问,DeepSeek-R1会在终端下回答。

但是在终端界面提问的话,很不方便,每次提问都需要输入指令,可参考下方可视化以便后续试用

安装可视化WebUI客户端

提示:此WebUI需要搭配Chrome浏览器,请提前下载Chrome,在Chrome中运行。
chrome下载链接:https://www.google.cn/chrome/
WebUI下载:https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo

  • 打开浏览器插件,如果可以看到“Ollama is running”代表插件已经识别到Ollama。
  • 点击左上方“Select a Model”,选择“DeepSeek-R1”
  • 选择完成后,在页面右上角点击小齿轮图标进入设置。
  • 在左侧的“RAG Settings”中,把右侧的Embedding Model选择成“DeepSeek-R1”
  • 最后点击右下角的“Save”,后续就可以在WebUI端使用啦~

下载并配置AngthingLLM(本地数据库)

AngthingLLM官网:https://useanything.com
下载链接:https://useanything.com/download

在使用前,需要启动Ollama服务

开始需要配置一下

选择ollama后选择您本地安装好的deepseek

点击下一步后可以直接选择跳过

需要创建一个工作区,可以根据自身需要进行创建

进入AngthingLLM可以选择设置选择选择聊天模式
聊天:不管提问什么都会给出回答,尽管部分回答是错误的
查询:根据您本地的数据库内容进行回答,如果查询不到将会直接告知你

我们可以再左侧点击上传按钮将本地的相关文档进行上传,这样就会根据您本地数据库的内容回答您的问题了