随着DeepSeek的火爆盛行,它在多个领域取得了突破性进展,各大厂商纷纷跟进。你是否也跃跃欲试呢?本教程将全方位带领大家零基础部署DeepSeek R1模型,根据以下步骤,可以帮助大家有效避坑,确保一次部署成功。闲话少叙,直接上干货。

误区

在开始之前呢,我们先谈一下大家经常碰到的疑惑:

  • “我电脑没有GPU可以运行LLM大模型吗?”
  • “GPU太老,是不是跑不了LLM大模型”
  • “我要玩AI,是不是必须买GPU,买什么GPU呢?”
  • “你连GPU是啥都不知道,玩啥AI”
  • “......”

上述诸如此类的问题,是否似曾相识呢?还有很多就不一一罗列啦!

我只想说:GPU是加速卡,有固然好,但运行LLM大模型或AI模型,CPU也未尝不可。

环境准备

本教程的DeepSeek部署,基于以下环境,供大家参考。

  • 操作系统:Windows 10 / Ubuntu Linux
  • CPU:x86架构 / ARM架构
  • 部署工具:Ollama

安装步骤

请按照如下顺序流程逐步操作,成功部署 So Easy!

1、下载Ollama

Ollama官方下载链接https://ollama.com/download

请根据自己的实际情况,选择下载的版本,各版本安装流程略有差异,但使用方式是一样的。

2、安装Ollama

2-1、Ollama Windows版
  • 双击安装,安装步骤如下图所示:

Ollama Windows版本,基本上是一键安装,非常简单,安装完毕后,右小角会出现Ollama小图标。

2-2、Ollama Linux版 

(1)通过官方脚本一键安装

curl -fsSL https://ollama.com/install.sh | sh

在Shell中,执行如上脚本,如下图所示:

注:由于众所周知的原因,国内通过此方式安装,堪称龟速,基本上很难成功(采用官方的安装方式,肯定让你痛苦不堪呦)!

(2)手动安装(靠谱)

  • 从Github下载安装包

Ollama Github Release Pagehttps://github.com/ollama/ollama/releases/tag/v0.5.7Ollama Linux x86架构下载地址https://ollama.com/download/ollama-linux-amd64.tgzOllama Linux ARM架构下载地址https://ollama.com/download/ollama-linux-arm64.tgz注:后两个链接看似是官网地址,实则最后都会跳转到Github下载,只不过会方便一些,它会自动定位到最新版本的安装包。

  • 解压安装

   a)在 /opt 目录下创建 ollama 目录:

mkdir /opt/ollama

   b)将下载的安装包拷贝到此目录,如下图所示:

   c)进入此目录,并解压

cd /opt/ollama
tar -xzvf ollama-linux-amd64-v0.5.7.tgz

解压完成后,如下图所示:

  • 将 Ollama 添加到环境变量,便于在任意地方使用

将如下内容,添加到 /etc/profile 文件中:

export OLLAMA_HOME=/opt/ollama
export PATH=$OLLAMA_HOME/bin:$PATH

使环境变量立即生效:

source /etc/profile
  • 将 Ollama 作为系统服务,便于开机自动启动

第一步:创建服务文件,并添加配置项

创建文件 /etc/systemd/system/ollama.service

touch /etc/systemd/system/ollama.service

添加如下内容到此文件中

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/opt/ollama/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_KEEP_ALIVE=-1"
Environment="OLLAMA_MODELS=/opt/ollama/models"
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

第三步:启用此服务配置,并启动Ollama服务

sudo systemctl daemon-reload
sudo systemctl enable ollama

输出如下内容即成功。

Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.

启动Ollama服务

sudo systemctl start ollama

3、验证Ollama

  • 在 cmd 或 shell 中 输入如下命令:
ollama -v

输出如下结果,即表示Ollama安装成功

ollama version is 0.5.7

部署 DeepSeek R1 模型

DeepSeek R1 模型地址https://ollama.com/library/deepseek-r1注:在这里可以看到多种尺寸的R1模型,请根据自己的实际需求选择。本教程采用1.5b尺寸的。

  • 部署模型
ollama run deepseek-r1:1.5b

注:输入此命令后,ollama会自动下载模型并运行,等待完成即可。下载过程如图所示:

此时,/opt/ollama 目录结构如下:

与 DeepSeek R1 交互

  • 通过终端交互,如下图所示:

  • 通过REST调用 R1 大模型
curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:1.5b",
  "messages": [
    {
      "role": "user",
      "content": "你是谁?"
    }
  ],
  "stream": false
}'

输出结果如下:

{
    "model":"deepseek-r1:1.5b",
    "created_at":"2025-02-07T09:14:10.124220416Z",
    "message": {
        "role": "assistant", 
        "content":"\u003cthink\u003e\n\n\u003c/think\u003e\n\n您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。"
    }

    ,
    "done_reason":"stop",
    "done":true,
    "total_duration":2827133849,
    "load_duration":24253134,
    "prompt_eval_count":6,
    "prompt_eval_duration":105377000,
    "eval_count":40,
    "eval_duration":2654455000
}

至此分享结束!快来自己动手体验吧!

Enjoy It!

Logo

一起探索未来云端世界的核心,云原生技术专区带您领略创新、高效和可扩展的云计算解决方案,引领您在数字化时代的成功之路。

更多推荐