本文将详细说明DeepSeek本地部署的详细步骤:

部署前准备:

  • 电脑一台,配置不限 但内存还是得大于8G
  • 如果有科学网络更好
  • 下载并安装ollama开源框架,ollama是一个开源框架,专门用于在本地机器上便捷部署和运行大型语言模型
  • 安装Chatbox AI(该步骤是可选项),可以使得与deepseek交互时的页面更加美观和人性化
  • 完成,可在本地问deepseek问题了
  1. 本文所用电脑,苹果macPRO ,机器比较古董了。如果是windows系统和linux,操作步骤几乎一致,可以参照执行。

2. 安装ollama框架

下载地址 Download Ollama on macOS

下载可能会很慢,这个时候可以用科学网络,具体步骤大家可以百度。下载成功后就正常的一步步安装,直到完成后在电脑上能看到ollama的图标。

此时可以通过访问http://localhost:11434验证是否安装成功,也可以在终端输入 ollama -version验证

到这里整体进度已经完成了一小半了。

3. 下载并运行deepseek模型

刚刚提到的电脑的配置不限,是因为我们本地可以选择部署的版本,大家可以按照内存大小选择

  • 入门级:1.5B版本,适合初步测试,8GB RAM:1.5B版本。
  • 中端:7B或8B版本,适合大多数消费级硬件。16GB RAM:7B或8B版本。
  • 高性能:14B、32B或70B版本,适合高端硬件。32GB RAM:14B或32B版本

我们刚刚安装ollma的目的,就是可以简化本地化部署的步骤,现在我们只需要一条命令即可下载并且安装deepseek的模型

执行命令 :ollama run deepseek-r1:1.5b 特别注意:这一行命令很重要,第一次执行会去下载并安装大模型,安装成功以后如果关闭了命令窗口或者是电脑关机后想要重新打开,也是使用这行命令)

如果需要下载其他版本将1.5b换成其他版本即可。

这个命令下载的时间可能会根据网络原因会比较长,此时可以去做一下其他的事情等一等。

完成后会看到一个success,此时表示已经完成本地部署了,可以开始使用了。

在命令行中直接输入问题,即可看到思考过程以及答案。

到这里就已经能用了,但是交互界面是在终端,不是很直观,此时可以下载安装Chatbox AI

使用 Chatbox AI 进行交互,会更加流畅

下载地址 https://chatboxai.app/zh 需要在设置里面填上自己本地的api地址和模型选择,

大家就可以开始使用啦。

Logo

欢迎加入我们的广州开发者社区,与优秀的开发者共同成长!

更多推荐