OpenClaw + Ollama 本地大模型完整部置手册

*❌适用环境: Windows WSL2 / Ubuntu
*❌版本适配: Ollama ≥ 0.3.0 | OpenClaw ≥ v2026.4.11
*❌文档用途: 从9��搭建本地离线大本大平台,含完完整置、界面操作、问题措查、日志查看


一、环境准备

1.1 硬件要求

配置项 最低要求 推荐配置
系统 Windows 10/11 (WSL2) / Ubuntu 22.04+ Windows 11 + WSL2 / Ubuntu 24.04
内存 16GB 32GB
CPU 4核 8核及上上
存储 20GB SSD 50GB+ SSD
显卡(可选) - NVIDIA 显卡(支持 CUDA)

1.2 WSL2 基础安装(Windows 专用)

以管理员身打开 PowerShell:

wsl --install
wsl --set-default-version 2

安装完成后重电脑,进入 Ubuntu 终端。

1.3 系统依赖更新

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git build-essential

二、Ollama 安装与模型型置

2.1 一键安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

验证安装:

ollama --version
sudo systemctl status ollama

2.2 拉取本地模型型

根据内存选择模型:

# 轻量模型(16GB 内存推荐)
ollama pull qwen3.5:4b

# 查看已装模型
ollama list

2.3 Ollama 性能优化(必做)

sudo systemctl stop ollama
sudo systemctl edit ollama.service

写入配置:

[Service]
MemoryMax=6G
Environment="OLLAMA_CPU_THREADS=6"
Environment="OLLAMA_NUM_PARALLEL=1"
Environment="OLLAMA_GPU_LAYERS=0"
Environment="OLLAMA_HOST=0.0.0.0:11434"

重启服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

2.4 WSL2 内存优化

Windows 中创建文件:
C:\Users\你用户名\.wslconfig

写入:

[wsl2]
memory=10GB
processors=6
swap=4GB
localhostForwarding=true

重启 WSL2:

wsl --shutdown

三、OpenClaw 安装与配置

3.1 安装 OpenClaw

curl -fsSL https://openclaw.ai/install.sh | sh

3.2 初始化置

openclaw configure

3.3 配置选项推荐

配置项 选择 说明
Setup mode QuickStart 快速配置
Config handling Use existing values 使用现有配置
Model/auth provider Ollama 对接本地模型型
Ollama base URL http://127.0.0.1:11434 默认地址
Ollama API Key local 任意填写
Ollama mode Local 纯本地运行
Default model ollama/qwen3.5:4b 按实际模型填才
Select channel Skip for now 不接入社交平台
Search provider Skip for now 不使用联网搜索
Configure skills No 不启用插件
Enable hooks 直接回车 不启用
Gateway Restart 重启网关
Hatch bot Open the Web UI 打开网页控台到

配置完成,浏览器访阅到地址:

http://127.0.0.1:18789/#token=xxxx

四、OpenClaw 界面操作指南

4.1 会话管理命令

命令 功能
/new 新建会话
/reset 重置当前会话
/cancel 终止正在执行的请求
/session list 查看所有会话
/session 名称 切换会话

4.2 队列阻塞处理

  • 点击排队消涄右侧 × 删除任务
  • 输入 /cancel 终止请求
  • 仍卡卡死则重启 Ollama + OpenClaw

五、常见问题措查

5.1 请求队列卡死(Queued 不动)

❌解决方案

pkill -9 ollama
sudo systemctl restart ollama
openclaw gateway restart

5.2 模型响应极慢

  • 更换为 qwen3.5:2b 轻量模型
  • 检查 WSL2 内存是否资
  • 关闭夝余后台程程序

5.3 无法新建会话

界面无按钮,直接使用命令:

/new
/session create Java开发

5.4 Ollama 服务异常

# 实时日志
sudo journalctl -u ollama -f

# 重启服务
sudo systemctl restart ollama

六、Ollama 日志查看方法

6.1 调试模式实时日志

sudo systemctl stop ollama
OLLAMA_DEBUG=1 ollama serve

6.2 系统服务日志

# 实时滚动
sudo journalctl -u ollama -f

# 最近100行
sudo journalctl -u ollama -n 100

# 筛选错误
sudo journalctl -u ollama | grep -i error

6.3 OpenClaw 网关日志

openclaw logs --gateway

七、常用运维命令

Ollama

ollama list
ollama pull 模型名
ollama run 模型名
sudo systemctl restart ollama

OpenClaw

openclaw configure
openclaw gateway restart
openclaw status
openclaw logs --gateway

八、安全与使用建议

  1. 仅本地使用,不对外露端站口
  2. 优先使用量化模型(q4_K_M)
  3. 避先使用连续发送条消涄造成队列阻塞
  4. 定期清理会话历史提运行速速度
  5. 16GB 内存不建议使用 7B 及上上模型
Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐