最近在研究开源大模型应用落地时,发现了一个非常值得推荐的项目——Open WebUI。它是一个功能强大、可自托管的 Web 界面,专为运行大语言模型(LLM)设计。无论是对接 OpenAI API,还是配合 Ollama 运行本地模型,它都能提供极佳的用户体验,特别是其内置的 RAG(检索增强生成)功能,能让 AI 基于私有文档进行问答,非常适合搭建企业或个人知识库。
今天这篇文章,就来和大家分享一下如何从零开始部署 Open WebUI。

一、 为什么选择 Open WebUI?

市面上类似的 UI 工具不少,但 Open WebUI 能脱颖而出,主要有几个原因:

  1. 体验接近原生 ChatGPT:界面 UI 设计非常现代化,操作逻辑符合直觉,几乎无学习成本。
  2. 模型支持广泛:不仅完美支持 Ollama,还能接入任何 OpenAI 兼容的 API,切换模型非常灵活。
  3. 隐私与安全:数据完全存储在本地服务器,对于注重数据隐私的团队来说,这是刚需。
  4. RAG 原生支持:无需复杂配置,直接在界面上传文档,即可实现基于文档的精准问答。

二、 服务器环境准备

本次演示我们使用一台 Linux 服务器(以 Ubuntu 为例)。考虑到网络环境的稳定性和部署的便捷性,服务器选择上推荐大家使用国内线路优化的云服务器。
这里我使用的是雨云的服务器,主要原因是线路对国内用户比较友好,且性价比不错。如果是新注册用户,记得在注册的时候填写优惠码 techaser,绑定微信后能享受首月五折和永久八折,能省一点是一点。
推荐配置:

  • CPU:2核及以上
  • 内存:4GB 起步(若运行本地大模型建议 8GB+)
  • 系统:CentOS 7.9 或 Ubuntu 20.04/22.04

三、 部署步骤详解

我们将使用 Docker 进行部署,这也是目前最方便、最快捷的方式。
如果你刚刚购买了雨云服务器并且预装了docker,雨云会帮你整合好所有东西,你只需要直接安装open webui即可。

1. 安装 Docker 及 Docker Compose

如果服务器尚未安装 Docker,请执行以下命令快速安装:

# 安装必要工具
curl -fsSL https://get.docker.com -o get-docker.sh
sh get-docker.sh
# 启动 Docker 服务
systemctl start docker
systemctl enable docker
# 安装 Docker Compose 插件(可选,视系统而定,新版Docker通常自带compose命令)

安装完成后,可以通过 docker --version 检查是否安装成功。

2. 拉取镜像并启动容器

Open WebUI 提供了两种主要的部署模式:一种是仅连接 OpenAI 等 API 的轻量模式,另一种是内置 Ollama 的全功能模式。
方案 A:仅使用 WebUI(连接外部 API 或已有 Ollama 服务)
这种方式占用资源较少,适合只作为前端界面的场景。

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

方案 B:集成 Ollama(推荐)
如果你希望在这台服务器上直接运行本地模型(如 Llama 3、Qwen 等),建议使用官方推荐的 Docker Compose 方式。
首先创建一个 docker-compose.yml 文件:

version: '3.8'
services:
  ollama:
    image: ollama/ollama:latest
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama
    restart: always
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    volumes:
      - open-webui:/app/backend/data
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    depends_on:
      - ollama
    restart: always
volumes:
  ollama_data:
  open-webui:

保存后,在当前目录运行:

docker compose up -d

稍等片刻,待镜像拉取完成后,服务即启动。

四、 功能配置与使用

1. 初始化登录

服务启动后,在浏览器中访问 http://<你的服务器IP>:3000
首次访问会提示你创建管理员账号。填写邮箱和密码即可完成注册。请注意,如果是生产环境使用,建议设置强密码。

2. 模型配置

进入后台后,点击右上角的“设置”图标。

  • 连接 OpenAI:在“模型供应商”选项卡中,填入你的 OpenAI API Key。Open WebUI 会自动获取模型列表。
  • 使用 Ollama:如果你采用了方案 B,Open WebUI 会自动检测到 Ollama 服务。你需要先在终端或 WebUI 的模型管理中拉取模型,例如:
    # 在服务器终端执行,拉取 Llama3 模型
    docker exec -it ollama ollama pull llama3
    
    拉取成功后,WebUI 界面上方即可选择该模型。
3. RAG 文档问答体验

这是 Open WebUI 的一大亮点。

  1. 在聊天界面左侧,点击“文档”或直接使用 # 符号。
  2. 上传你的 PDF、Word 或 TXT 文档。
  3. 在输入框中提问,例如:“请根据上传的文档,总结核心内容。”
    系统会自动检索文档内容并结合大模型生成回答,准确度非常高,对于处理长文档或私有数据特别有用。

Open WebUI 作为一个开源项目,在功能完整度和易用性之间取得了很好的平衡。它不仅解决了数据隐私痛点,还提供了 RAG 这种高阶玩法,非常适合作为个人 AI 助手或团队知识库的基础平台。
如果你手头正好有一台闲置服务器,不妨试着部署一下。如果还没有合适的服务器,可以考虑去雨云看看,记得输入优惠码 techaser,体验成本会更低一些。
希望这篇教程对你有所帮助,如有任何部署问题,欢迎在评论区交流。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐