【开源项目】Open WebUI 部署教程,打造私有化 AI 知识库
本文介绍了开源大模型应用Open WebUI的部署方法,这是一款可自托管的Web界面工具,支持对接OpenAI API和本地Ollama模型。文章重点讲解了两种部署方案:轻量级API连接模式和集成Ollama的全功能模式,并推荐使用Docker进行快速部署。Open WebUI的优势包括类ChatGPT体验、广泛模型支持、数据本地存储和内置RAG功能,特别适合搭建企业或个人知识库。部署完成后,用户
最近在研究开源大模型应用落地时,发现了一个非常值得推荐的项目——Open WebUI。它是一个功能强大、可自托管的 Web 界面,专为运行大语言模型(LLM)设计。无论是对接 OpenAI API,还是配合 Ollama 运行本地模型,它都能提供极佳的用户体验,特别是其内置的 RAG(检索增强生成)功能,能让 AI 基于私有文档进行问答,非常适合搭建企业或个人知识库。
今天这篇文章,就来和大家分享一下如何从零开始部署 Open WebUI。
一、 为什么选择 Open WebUI?
市面上类似的 UI 工具不少,但 Open WebUI 能脱颖而出,主要有几个原因:
- 体验接近原生 ChatGPT:界面 UI 设计非常现代化,操作逻辑符合直觉,几乎无学习成本。
- 模型支持广泛:不仅完美支持 Ollama,还能接入任何 OpenAI 兼容的 API,切换模型非常灵活。
- 隐私与安全:数据完全存储在本地服务器,对于注重数据隐私的团队来说,这是刚需。
- RAG 原生支持:无需复杂配置,直接在界面上传文档,即可实现基于文档的精准问答。
二、 服务器环境准备
本次演示我们使用一台 Linux 服务器(以 Ubuntu 为例)。考虑到网络环境的稳定性和部署的便捷性,服务器选择上推荐大家使用国内线路优化的云服务器。
这里我使用的是雨云的服务器,主要原因是线路对国内用户比较友好,且性价比不错。如果是新注册用户,记得在注册的时候填写优惠码 techaser,绑定微信后能享受首月五折和永久八折,能省一点是一点。
推荐配置:
- CPU:2核及以上
- 内存:4GB 起步(若运行本地大模型建议 8GB+)
- 系统:CentOS 7.9 或 Ubuntu 20.04/22.04
三、 部署步骤详解
我们将使用 Docker 进行部署,这也是目前最方便、最快捷的方式。
如果你刚刚购买了雨云服务器并且预装了docker,雨云会帮你整合好所有东西,你只需要直接安装open webui即可。
1. 安装 Docker 及 Docker Compose
如果服务器尚未安装 Docker,请执行以下命令快速安装:
# 安装必要工具
curl -fsSL https://get.docker.com -o get-docker.sh
sh get-docker.sh
# 启动 Docker 服务
systemctl start docker
systemctl enable docker
# 安装 Docker Compose 插件(可选,视系统而定,新版Docker通常自带compose命令)
安装完成后,可以通过 docker --version 检查是否安装成功。
2. 拉取镜像并启动容器
Open WebUI 提供了两种主要的部署模式:一种是仅连接 OpenAI 等 API 的轻量模式,另一种是内置 Ollama 的全功能模式。
方案 A:仅使用 WebUI(连接外部 API 或已有 Ollama 服务)
这种方式占用资源较少,适合只作为前端界面的场景。
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
方案 B:集成 Ollama(推荐)
如果你希望在这台服务器上直接运行本地模型(如 Llama 3、Qwen 等),建议使用官方推荐的 Docker Compose 方式。
首先创建一个 docker-compose.yml 文件:
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
ports:
- "11434:11434"
volumes:
- ollama_data:/root/.ollama
restart: always
open-webui:
image: ghcr.io/open-webui/open-webui:main
ports:
- "3000:8080"
volumes:
- open-webui:/app/backend/data
environment:
- OLLAMA_BASE_URL=http://ollama:11434
depends_on:
- ollama
restart: always
volumes:
ollama_data:
open-webui:
保存后,在当前目录运行:
docker compose up -d
稍等片刻,待镜像拉取完成后,服务即启动。
四、 功能配置与使用
1. 初始化登录
服务启动后,在浏览器中访问 http://<你的服务器IP>:3000。
首次访问会提示你创建管理员账号。填写邮箱和密码即可完成注册。请注意,如果是生产环境使用,建议设置强密码。
2. 模型配置
进入后台后,点击右上角的“设置”图标。
- 连接 OpenAI:在“模型供应商”选项卡中,填入你的 OpenAI API Key。Open WebUI 会自动获取模型列表。
- 使用 Ollama:如果你采用了方案 B,Open WebUI 会自动检测到 Ollama 服务。你需要先在终端或 WebUI 的模型管理中拉取模型,例如:
拉取成功后,WebUI 界面上方即可选择该模型。# 在服务器终端执行,拉取 Llama3 模型 docker exec -it ollama ollama pull llama3
3. RAG 文档问答体验
这是 Open WebUI 的一大亮点。
- 在聊天界面左侧,点击“文档”或直接使用
#符号。 - 上传你的 PDF、Word 或 TXT 文档。
- 在输入框中提问,例如:“请根据上传的文档,总结核心内容。”
系统会自动检索文档内容并结合大模型生成回答,准确度非常高,对于处理长文档或私有数据特别有用。
Open WebUI 作为一个开源项目,在功能完整度和易用性之间取得了很好的平衡。它不仅解决了数据隐私痛点,还提供了 RAG 这种高阶玩法,非常适合作为个人 AI 助手或团队知识库的基础平台。
如果你手头正好有一台闲置服务器,不妨试着部署一下。如果还没有合适的服务器,可以考虑去雨云看看,记得输入优惠码 techaser,体验成本会更低一些。
希望这篇教程对你有所帮助,如有任何部署问题,欢迎在评论区交流。
更多推荐




所有评论(0)