DeepSeek本地部署教程 deepseek本地部署工具
DeepSeek可以在网页端使用,但是有些时候可能不是很稳定,除了网页端,也能通过本地部署来使用。下面就一起来看看吧
配置要求
- Windows 配置:
- 最低要求:NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间
- 推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD
- 高性能配置:NVIDIA RTX 3090 24GB 或 AMD RX 7900 XTX 24GB,64GB 内存,200GB NVMe SSD
- Mac 配置:
- 最低要求:M2 MacBook Air(8GB 内存)
- 推荐配置:M2/M3 MacBook Pro(16GB 内存)
- 高性能配置:M2 Max/Ultra Mac Studio(64GB 内存)
本地部署工具Ollama使用方法
1. 在加速界面可一键下载(windows版本)
2. 安装完成
3. 按Win键输入cmd打开并输入【Ollama】后按下回车,如下图所示即为安装成功;
4. 安装命令如下:安装完成后出现【success】则代表安装成功
1. 内存低于4GB安装命令如下:
ollama run deepseek-r1:1.5b
2. 内存在8GB-12GB安装命令如下:
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
3.内存在12GB以上安装命令如下:
ollama run deepseek-r1:14b
4.内存在32GB以上安装命令如下:
ollama run deepseek-r1:32b
5.内存在70GB以上安装命令如下:
ollama run deepseek-r1:70b
注意:内存越高,效果越好,但占用储存会更多。
5. 此时我们可以直接在终端下提问,DeepSeek-R1会在终端下回答。
但是在终端界面提问的话,很不方便,每次提问都需要输入指令,可参考下方可视化以便后续试用
安装可视化WebUI客户端
提示:此WebUI需要搭配Chrome浏览器,请提前下载Chrome,在Chrome中运行。
chrome下载链接:https://www.google.cn/chrome/
WebUI下载:https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo
- 打开浏览器插件,如果可以看到“Ollama is running”代表插件已经识别到Ollama。
- 点击左上方“Select a Model”,选择“DeepSeek-R1”
- 选择完成后,在页面右上角点击小齿轮图标进入设置。
- 在左侧的“RAG Settings”中,把右侧的Embedding Model选择成“DeepSeek-R1”
- 最后点击右下角的“Save”,后续就可以在WebUI端使用啦~
下载并配置AngthingLLM(本地数据库)
AngthingLLM官网:https://useanything.com
下载链接:https://useanything.com/download
在使用前,需要启动Ollama服务
开始需要配置一下
选择ollama后选择您本地安装好的deepseek
点击下一步后可以直接选择跳过
需要创建一个工作区,可以根据自身需要进行创建
进入AngthingLLM可以选择设置选择选择聊天模式
聊天:不管提问什么都会给出回答,尽管部分回答是错误的
查询:根据您本地的数据库内容进行回答,如果查询不到将会直接告知你
我们可以再左侧点击上传按钮将本地的相关文档进行上传,这样就会根据您本地数据库的内容回答您的问题了