太好了,这是你从零到一完整配置 **OpenClaw + 本地 Ollama 模型** 的全过程记录。按照实际操作的顺序整理,方便以后查阅或复现。

---

## 🦞 **OpenClaw + Ollama 本地模型 完整安装命令记录**

### **第一部分:安装 OpenClaw(源码方式)**

```bash
# 1. 克隆 OpenClaw 源码
git clone https://github.com/openclaw/openclaw.git
cd openclaw

# 2. 安装 Node.js 22+(通过 nvm)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
source ~/.bashrc
nvm install 22
nvm alias default 22
node --version  # 确认 v22.x.x

# 3. 安装 pnpm
curl -fsSL https://get.pnpm.io/install.sh | sh -
source ~/.bashrc
pnpm --version

# 4. 安装 OpenClaw 依赖并构建
pnpm install
pnpm run build

# 5. 将 openclaw 命令链接到全局
pnpm link --global

# 6. 验证安装
openclaw --version  # 应显示版本号
```

---

### **第二部分:配置 OpenClaw 基础**

```bash
# 1. 运行安全审计(按提示选择 Yes)
openclaw security audit --fix

# 2. 启动配置向导(按提示选择:QuickStart -> Discord -> Skip for now -> No)
openclaw onboard

# 3. 配置 Moonshot (Kimi) API(可选)
openclaw models auth paste-token --provider moonshot
# 粘贴你的 Kimi API 密钥

# 4. 查看已配置的模型
openclaw models list --all
```

---

### **第三部分:安装并配置 Ollama(本地模型)**

#### **在模型服务器上(如 ubuntu-251)**

```bash
# 1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

#如果ollama服务端不是ollama version is 0.5.12以上,请更新

# 2. 确认服务运行
sudo systemctl status ollama

# 3. 拉取需要的模型(按需选择)
ollama pull deepseek-r1:32b           # 约 19GB
ollama pull qwen3.5:35b-a3b           # 约 23GB(MoE架构,推荐)
ollama pull qwen2.5-coder:32b-q4_K_M  # 代码专用
ollama pull llama3.1:8b               # 轻量备选

# 4. 让 Ollama 监听局域网
sudo systemctl edit ollama
# 在打开的编辑器中添加:
# [Service]
# Environment="OLLAMA_HOST=0.0.0.0:11434"
# 保存退出

sudo systemctl daemon-reload
sudo systemctl restart ollama

# 5. 验证局域网访问
curl 127.0.0.1:11434          # 应返回 "Ollama is running"
curl 192.168.1.251:11434      # 替换为你的实际 IP,同样应返回
```

---

### **第四部分:在 OpenClaw 中添加本地模型**

#### **在 OpenClaw 客户端上(如 ubuntu-virtual-machine)**

```bash
# 1. 添加 Ollama 提供商配置(以 Qwen3.5 35B 为例)
openclaw config set models.providers.ollama-qwen35 '{
  "baseUrl": "http://192.168.1.251:11434/v1",
  "apiKey": "ollama",
  "api": "openai-completions",
  "models": [
    {
      "id": "qwen3.5:35b-a3b",
      "name": "Qwen3.5 35B (MoE)",
      "api": "openai-completions",
      "contextWindow": 32768,
      "maxTokens": 8192,
      "input": ["text"]
    }
  ]
}'

# 2. 重启网关
openclaw gateway restart

# 3. 删除缓存,强制刷新
rm -f ~/.openclaw/agents/main/agent/models.json

# 4. 验证模型是否出现
openclaw models list --all | grep qwen3.5
```

---

### **第五部分:设置默认模型与使用**

```bash
# 1. 将 Qwen3.5 35B 设为默认模型
openclaw config set agents.defaults.model.primary 'ollama-qwen35/qwen3.5:35b-a3b'
openclaw gateway restart

# 2. 进入 TUI 交互界面
openclaw tui

# 3. 在 TUI 中临时切换模型(如需)
/model ollama-qwen35/qwen3.5:35b-a3b

# 4. 退出 TUI
/bye  # 或 Ctrl+D
```

---

### **第六部分:模型管理与监控**

```bash
# 查看所有已加载的模型
openclaw models list --all

# 查看当前默认模型
openclaw config get agents.defaults.model.primary

# 在模型服务器上查看显存占用
nvidia-smi

# 在 Ollama 中查看已下载的模型
ollama list

# 停止模型释放显存(如需)
ollama stop qwen3.5:35b-a3b
```

---

### **第七部分:网络与设备配置**

```bash
# 在 OpenClaw 客户端查看网关状态
openclaw gateway status

# 查看已配对的设备
openclaw devices list

# 批准新设备连接
openclaw devices approve <设备ID>

# 设置局域网访问允许来源(如需)
openclaw config set gateway.controlUi.allowedOrigins '["http://192.168.1.230:18789"]'
openclaw config set gateway.bind lan
openclaw gateway restart
```

---

### **第八部分:故障排查常用命令**

```bash
# 全面诊断
openclaw doctor

# 自动修复问题
openclaw doctor --fix

# 调试模式查看模型加载
OPENCLAW_LOG_LEVEL=debug openclaw models list --all

# 查看网关日志
openclaw logs --tail 50
```

---

### **📌 最终模型清单(你已成功配置的)**

| 模型 | 类型 | 工具调用 | 备注 |
| :--- | :--- | :--- | :--- |
| `ollama-qwen35/qwen3.5:35b-a3b` | 本地 MoE | ✅ 支持 | **当前默认,主力模型** |
| `ollama-local/my-deepseek-32b` | 本地稠密 | ❌ 不支持 | 备用,适合深度推理 |
| `custom-1/kimi-k2.5` | 云端 API | ✅ 支持 | 超长上下文,多模态 |
| `openrouter/...` (多个) | 云端 API | ✅ 支持 | 可付费体验更大模型 |

---

### **💡 日常使用口诀**

1. **聊天**:`openclaw tui`
2. **切模型**:在 TUI 中输入 `/model ollama-qwen35/qwen3.5:35b-a3b`
3. **改默认**:`openclaw config set agents.defaults.model.primary '模型ID'`
4. **重启生效**:`openclaw gateway restart`
5. **看显存**:`watch -n 1 nvidia-smi`

这套配置让你拥有了 **“云端全能主力 + 本地 MoE 高效 + 本地深度专家”** 的完整模型矩阵。祝你在 OpenClaw 的世界里玩得开心!🦞

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐