龙虾OpenClaw + 本地 Ollama 模型
按照实际操作的顺序整理,方便以后查阅或复现。| `ollama-qwen35/qwen3.5:35b-a3b` | 本地 MoE | ✅ 支持 | **当前默认,主力模型** || `ollama-local/my-deepseek-32b` | 本地稠密 | ❌ 不支持 | 备用,适合深度推理 |2. **切模型**:在 TUI 中输入 `/model ollama-qwen35/qwen3.5
太好了,这是你从零到一完整配置 **OpenClaw + 本地 Ollama 模型** 的全过程记录。按照实际操作的顺序整理,方便以后查阅或复现。
---
## 🦞 **OpenClaw + Ollama 本地模型 完整安装命令记录**
### **第一部分:安装 OpenClaw(源码方式)**
```bash
# 1. 克隆 OpenClaw 源码
git clone https://github.com/openclaw/openclaw.git
cd openclaw
# 2. 安装 Node.js 22+(通过 nvm)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
source ~/.bashrc
nvm install 22
nvm alias default 22
node --version # 确认 v22.x.x
# 3. 安装 pnpm
curl -fsSL https://get.pnpm.io/install.sh | sh -
source ~/.bashrc
pnpm --version
# 4. 安装 OpenClaw 依赖并构建
pnpm install
pnpm run build
# 5. 将 openclaw 命令链接到全局
pnpm link --global
# 6. 验证安装
openclaw --version # 应显示版本号
```
---
### **第二部分:配置 OpenClaw 基础**
```bash
# 1. 运行安全审计(按提示选择 Yes)
openclaw security audit --fix
# 2. 启动配置向导(按提示选择:QuickStart -> Discord -> Skip for now -> No)
openclaw onboard
# 3. 配置 Moonshot (Kimi) API(可选)
openclaw models auth paste-token --provider moonshot
# 粘贴你的 Kimi API 密钥
# 4. 查看已配置的模型
openclaw models list --all
```
---
### **第三部分:安装并配置 Ollama(本地模型)**
#### **在模型服务器上(如 ubuntu-251)**
```bash
# 1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
#如果ollama服务端不是ollama version is 0.5.12以上,请更新
# 2. 确认服务运行
sudo systemctl status ollama
# 3. 拉取需要的模型(按需选择)
ollama pull deepseek-r1:32b # 约 19GB
ollama pull qwen3.5:35b-a3b # 约 23GB(MoE架构,推荐)
ollama pull qwen2.5-coder:32b-q4_K_M # 代码专用
ollama pull llama3.1:8b # 轻量备选
# 4. 让 Ollama 监听局域网
sudo systemctl edit ollama
# 在打开的编辑器中添加:
# [Service]
# Environment="OLLAMA_HOST=0.0.0.0:11434"
# 保存退出
sudo systemctl daemon-reload
sudo systemctl restart ollama
# 5. 验证局域网访问
curl 127.0.0.1:11434 # 应返回 "Ollama is running"
curl 192.168.1.251:11434 # 替换为你的实际 IP,同样应返回
```
---
### **第四部分:在 OpenClaw 中添加本地模型**
#### **在 OpenClaw 客户端上(如 ubuntu-virtual-machine)**
```bash
# 1. 添加 Ollama 提供商配置(以 Qwen3.5 35B 为例)
openclaw config set models.providers.ollama-qwen35 '{
"baseUrl": "http://192.168.1.251:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5:35b-a3b",
"name": "Qwen3.5 35B (MoE)",
"api": "openai-completions",
"contextWindow": 32768,
"maxTokens": 8192,
"input": ["text"]
}
]
}'
# 2. 重启网关
openclaw gateway restart
# 3. 删除缓存,强制刷新
rm -f ~/.openclaw/agents/main/agent/models.json
# 4. 验证模型是否出现
openclaw models list --all | grep qwen3.5
```
---
### **第五部分:设置默认模型与使用**
```bash
# 1. 将 Qwen3.5 35B 设为默认模型
openclaw config set agents.defaults.model.primary 'ollama-qwen35/qwen3.5:35b-a3b'
openclaw gateway restart
# 2. 进入 TUI 交互界面
openclaw tui
# 3. 在 TUI 中临时切换模型(如需)
/model ollama-qwen35/qwen3.5:35b-a3b
# 4. 退出 TUI
/bye # 或 Ctrl+D
```
---
### **第六部分:模型管理与监控**
```bash
# 查看所有已加载的模型
openclaw models list --all
# 查看当前默认模型
openclaw config get agents.defaults.model.primary
# 在模型服务器上查看显存占用
nvidia-smi
# 在 Ollama 中查看已下载的模型
ollama list
# 停止模型释放显存(如需)
ollama stop qwen3.5:35b-a3b
```
---
### **第七部分:网络与设备配置**
```bash
# 在 OpenClaw 客户端查看网关状态
openclaw gateway status
# 查看已配对的设备
openclaw devices list
# 批准新设备连接
openclaw devices approve <设备ID>
# 设置局域网访问允许来源(如需)
openclaw config set gateway.controlUi.allowedOrigins '["http://192.168.1.230:18789"]'
openclaw config set gateway.bind lan
openclaw gateway restart
```
---
### **第八部分:故障排查常用命令**
```bash
# 全面诊断
openclaw doctor
# 自动修复问题
openclaw doctor --fix
# 调试模式查看模型加载
OPENCLAW_LOG_LEVEL=debug openclaw models list --all
# 查看网关日志
openclaw logs --tail 50
```
---
### **📌 最终模型清单(你已成功配置的)**
| 模型 | 类型 | 工具调用 | 备注 |
| :--- | :--- | :--- | :--- |
| `ollama-qwen35/qwen3.5:35b-a3b` | 本地 MoE | ✅ 支持 | **当前默认,主力模型** |
| `ollama-local/my-deepseek-32b` | 本地稠密 | ❌ 不支持 | 备用,适合深度推理 |
| `custom-1/kimi-k2.5` | 云端 API | ✅ 支持 | 超长上下文,多模态 |
| `openrouter/...` (多个) | 云端 API | ✅ 支持 | 可付费体验更大模型 |
---
### **💡 日常使用口诀**
1. **聊天**:`openclaw tui`
2. **切模型**:在 TUI 中输入 `/model ollama-qwen35/qwen3.5:35b-a3b`
3. **改默认**:`openclaw config set agents.defaults.model.primary '模型ID'`
4. **重启生效**:`openclaw gateway restart`
5. **看显存**:`watch -n 1 nvidia-smi`
这套配置让你拥有了 **“云端全能主力 + 本地 MoE 高效 + 本地深度专家”** 的完整模型矩阵。祝你在 OpenClaw 的世界里玩得开心!🦞
更多推荐



所有评论(0)