OpenClaw + Ollama 本地大模型实战:零成本、零隐私泄露的 AI Agent
🚀 不想把代码和私人数据发送到云端?不想每月为 API 付费?本文带你从零搭建完全本地化的 OpenClaw Agent——用 Ollama 运行开源大模型,所有数据永远不出 localhost。
OpenClaw + Ollama 本地大模型实战:零成本、零隐私泄露的 AI Agent
🚀 不想把代码和私人数据发送到云端?不想每月为 API 付费?本文带你从零搭建完全本地化的 OpenClaw Agent——用 Ollama 运行开源大模型,所有数据永远不出 localhost
📑 文章目录
- 为什么要本地化:成本、隐私、离线三大动机
- 架构总览:OpenClaw + Ollama 如何协作
- 硬件要求:你的机器能跑什么模型
- 模型选择指南:2026 年本地模型排行
- 安装 Ollama
- 方式一:ollama launch openclaw(最简一键方案)
- 方式二:手动配置 openclaw.json(完全控制)
- 上下文窗口:本地模型最大的坑
- 实战:用本地模型让 Agent 分析私有数据
- 调优技巧:让本地模型不再啰嗦
- 混合架构:本地 + 云端,鱼和熊掌兼得
- 常见问题排查
1. 为什么要本地化:成本、隐私、离线三大动机
现代 AI 工作流通常依赖云端 API。但如果你想要一个完全运行在自己机器上、保护数据隐私、并且支持多步骤 Agent 工作流的系统呢?
三大动机
| 动机 | 说明 |
|---|---|
| 💰 零成本 | OpenClaw + Ollama 最大的优势就是成本——唯一的花费是运行电脑的电费。 |
| 🔒 零隐私泄露 | 所有数据集、文档和中间输出都保留在设备上,不会传输到外部服务。 |
| ✈️ 离线可用 | 一旦通过 Ollama 拉取了模型,整个系统无需互联网即可工作。 |
如果你想用 OpenClaw 做个人助手——管理提醒、日历、账单——但又不愿把这些私人数据交给公共 LLM,那么本地私有 LLM 就是必要条件。
云端方案 vs 本地方案:
☁️ 云端 API(Anthropic / OpenAI)
├── ✅ 模型质量最强
├── ✅ 零配置
├── ❌ 每月 $20-200+ API 费用
├── ❌ 你的代码和数据发送到远程服务器
└── ❌ 断网就不能用
🏠 本地 Ollama
├── ✅ 完全免费
├── ✅ 数据永远不出 localhost
├── ✅ 断网也能用
├── ⚠️ 需要一定硬件(GPU 或 Apple Silicon)
└── ⚠️ 模型质量比云端旗舰模型低一档
💡 如果你处理的是法律文档、医疗信息、客户数据——本地推理可以完全规避跨境数据传输、第三方处理协议等合规问题。你的代码,你的 Prompt,你的机器。
2. 架构总览:OpenClaw + Ollama 如何协作
在本地 Ollama 模型上运行 OpenClaw,会将你的系统变成一个自包含的 AI 环境。整个工作流——包括推理、文件访问和产物生成——都在你的机器上运行,而不是发送 Prompt 和数据到外部 API。
┌─────────────────────────────────────────────────────────┐
│ 你的本地机器 │
│ │
│ ┌───────────────┐ ┌──────────────────┐ │
│ │ OpenClaw │ ◄─────► │ Ollama │ │
│ │ Gateway │ HTTP │ localhost:11434 │ │
│ │ │ │ │ │
│ │ 执行引擎: │ │ 推理引擎: │ │
│ │ · Shell 命令 │ │ · Qwen3.5 │ │
│ │ · 文件读写 │ │ · GLM-4.7 │ │
│ │ · 浏览器控制 │ │ · gpt-oss │ │
│ │ · MCP 工具 │ │ · DeepSeek-R1 │ │
│ └───────────────┘ └──────────────────┘ │
│ ▲ │
│ │ WebSocket / HTTP │
│ ┌──────┴───────┐ │
│ │ 聊天界面 │ TUI / Telegram / Discord / Web │
│ └──────────────┘ │
│ │
│ ❌ 没有任何数据离开这台机器 │
└─────────────────────────────────────────────────────────┘
OpenClaw 作为执行引擎,Ollama 提供推理层。 简单说:
- OpenClaw 负责"手和脚"——执行 Shell 命令、读写文件、调用 MCP 工具
- Ollama 负责"大脑"——理解指令、推理规划、生成代码
Ollama 的 baseUrl 指向本地 API 端点 http://localhost:11434/v1,而 api: openai-completions 设置启用了 OpenAI 兼容通信。
3. 硬件要求:你的机器能跑什么模型
本地模型质量与模型大小成正比,模型大小又与硬件需求成正比。
硬件分级表
| GPU 显存 / 统一内存 | 可运行的模型 | 体验等级 |
|---|---|---|
| 8 GB | Qwen3.5:9b、Qwen3.5:35b-a3b(MoE,仅激活 3B) | ⭐⭐ 能用,简单任务 |
| 16 GB | Qwen3.5:35b-a3b(流畅)、Qwen3.5:27b(Q4 量化) | ⭐⭐⭐ 好用 |
| 24 GB | Qwen3.5:27b Q4_K_M 约 17GB,在 4090 上绰绰有余 | ⭐⭐⭐⭐ 很好用 |
| 32 GB+(Mac) | Qwen3.5:27b(Q8)、Qwen3.5:122b-a10b(Q4) | ⭐⭐⭐⭐ 非常好 |
| 48 GB+ | Qwen3.5:122b-a10b 全面匹配 GPT-5 mini,工具调用超 30% | ⭐⭐⭐⭐⭐ 接近云端 |
最低要求
- 至少 16GB RAM(推荐 32GB+ 以获得更好体验)
- 如果没有 GPU,模型会在 CPU 上运行,速度慢 5-10 倍。GPU 支持能显著加速推理
- NVIDIA GPU 支持最好;AMD GPU 可以工作但性能较低
- OpenClaw 需要 Node.js 22 或更新版本
速度参考
| 模型 | 硬件 | 速度 |
|---|---|---|
| Qwen3.5:35b-a3b | RTX 5090 | 194 tok/s(比一年前多��� 7B 模型还快) |
| Qwen3.5:27b | RTX A6000 | ~20 tok/s |
| Qwen3.5:35b-a3b | RTX 3090 | 112 tok/s(MoE 每次仅激活 3B 参数) |
💡 速度参考线:50+ tok/s 实时对话流畅;25-50 tok/s 绝大多数任务可接受;<20 tok/s 能用但需要耐心。
4. 模型选择指南:2026 年本地模型排行
自 2026 年 3 月 Ollama 成为 OpenClaw 官方 Provider 以来,配置比以往更简单了。 而 Qwen3.5 系列改变了本地硬件能做到什么程度的计算公式。
🏆 推荐排行
Tier 1:首选推荐(2026 年 3 月)
| 模型 | 参数 | SWE-bench | 特点 | 适合硬件 |
|---|---|---|---|---|
| Qwen3.5:27b | 27B(Dense) | 72.4%(匹配 GPT-5 Mini) | 唯一的 Dense 模型,每个 token 每个参数都参与计算,推理密度最高 | 24GB+ GPU |
| Qwen3.5:35b-a3b | 35B(MoE,激活 3B) | 69.2% | MoE 架构,35B 总参数仅激活 3B,小模型速度 + 大模型知识 | 8-16GB GPU |
| Qwen3.5:122b-a10b | 122B(MoE,激活 10B) | ~72% | 工具调用 BFCL-V4 得分 72.2,超过 GPT-5 mini(55.5)整整 30% | 48GB+ |
Tier 2:其他可选
| 模型 | 说明 |
|---|---|
| GLM-4.7-Flash | 30B MoE,仅激活 3B 参数/token,原生工具调用支持。中文能力出色 |
| gpt-oss:20b | 20B 参数,编码能力强,社区热门 |
| DeepSeek-R1:32b | 推理能力出色,中文优秀 |
| Qwen3.5:9b | 在多个基准上匹配或超过了 GPT-OSS-120B(13 倍大的模型),效率惊人 |
选择决策树
你的 GPU 显存是多少?
│
├── 8 GB → Qwen3.5:35b-a3b(MoE,激活仅 3B)
│ 或 Qwen3.5:9b(纯小模型)
│
├── 16 GB → Qwen3.5:35b-a3b(流畅)
│ 或 Qwen3.5:27b Q4 量化(紧凑但可用)
│
├── 24 GB → Qwen3.5:27b Q4_K_M(首选,最佳编码质量)
│ 或 GLM-4.7-Flash(中文场景优先)
│
├── 32-48 GB(Mac 统一内存)
│ → Qwen3.5:27b Q8(最高量化质量)
│ 或 Qwen3.5:122b-a10b Q4
│
└── 48 GB+ → Qwen3.5:122b-a10b(全面匹配 GPT-5 mini)
⚠️ 重要提示:在模型配置中设置
"reasoning": false,并优先使用 Qwen3.5 系列——它们处理 OpenClaw 的工具调用格式比 Mistral 或老版 Llama 更可靠。建议至少 14B+ 模型;8B 模型可能会出现工具调用幻觉或丢失上下文。
5. 安装 Ollama
Ollama 是运行本地模型最简单的方式。安装它,拉取模型,你就有了一个运行在 localhost 的 OpenAI 兼容 API。
5.1 安装
# Linux(一键安装)
curl -fsSL https://ollama.com/install.sh | sh
# macOS / Windows
# 从 https://ollama.com 下载安装包
# 验证安装
ollama --version
5.2 拉取模型
根据你的硬件选择模型:
# ===== 根据你的硬件选一个 =====
# 最佳质量,需要 24GB+ 显存
ollama pull qwen3.5:27b
# 速度优先,8-16GB 即可运行
ollama pull qwen3.5:35b-a3b
# 轻量级,8GB 显存即可
ollama pull qwen3.5:9b
# 中文场景优秀
ollama pull glm-4.7-flash
# 编码热门选择
ollama pull gpt-oss:20b
5.3 快速测试
# 先用交互模式确认模型正常工作
ollama run qwen3.5:27b
# 输入一个简单问题测试,Ctrl+D 退出
# 测试 HTTP API
curl http://localhost:11434/api/tags
# 如果返回 JSON,说明 Ollama 正在运行
💡 更重要的是,在把模型交给 Agent 之前,先在 Ollama 的对话界面测试模型的推理能力。毕竟如果一个模型连基本对话都无法正常处理,就没必要浪费时间配置到 Agent 里。
6. 方式一:ollama launch openclaw(最简一键方案)
这是目前最省事的方式,大多数人可以在 5-10 分钟内搞定。
6.1 一键启动
# 确保已拉取模型
ollama pull qwen3.5:27b
# 一键启动!Ollama 自动配置 OpenClaw 并启动 Gateway
ollama launch openclaw
这个命令会自动完成:配置 Provider → 安装 Gateway 守护进程 → 将你的模型设为 Primary → 在后台启动 Gateway 并打开 OpenClaw TUI 界面。
6.2 指定模型启动
# 如果你拉了多个模型,可以指定用哪个
ollama launch openclaw --model qwen3.5:27b
# 或用 GLM
ollama launch openclaw --model glm-4.7-flash
6.3 还可以直接用 onboard 命令
也可以通过 openclaw onboard --auth-choice ollama 来启用集成。
# 先安装 OpenClaw
npm install -g @openclaw/cli
# 然后在 onboard 向导中选择 Ollama
openclaw onboard
# → 在 Provider 选择界面选 "Local model (Ollama)"
💡
ollama launch openclawvs 手动配置:如果你只是想快速跑起来,用 launch 就够了。如果你需要精确控制模型参数、多模型路由、自定义上下文窗口,请看下面的手动配置方式。
7. 方式二:手动配置 openclaw.json(完全控制)
这是我更推荐的方式,因为它让你完全理解每个配置项的含义,出了问题也知道从哪里排查。
7.1 配置文件位置
# OpenClaw 配置文件路径
~/.openclaw/openclaw.json
7.2 完整配置模板(Qwen3.5:27b)
编辑 ~/.openclaw/openclaw.json:
{
// ========== 模型配置 ==========
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434/v1",
"apiKey": "ollama-local", // 必填但 Ollama 会忽略此值
"api": "openai-completions", // ⚠️ 必须用这个,不要写 "anthropic"
"models": [
{
"id": "qwen3.5:27b", // 必须和 ollama list 显示的名字完全一致
"name": "Qwen3.5 27B",
"reasoning": false, // ⚠️ 本地模型建议设为 false
"input": ["text"],
"cost": { // 本地运行,全部为零
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 131072, // 128K(需要足够显存支撑)
"maxTokens": 8192
}
]
}
}
},
// ========== Agent 默认设置 ==========
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:27b" // 格式:provider名/模型id
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
// ========== 工具配置(隐私优先)==========
"tools": {
"web": {
"search": {
"enabled": false // 禁用搜索 = 不发出任何外部请求
},
"fetch": {
"enabled": true // 保留有限的资源获取能力
}
}
}
}
通过将 primary model 设为 ollama/qwen3.5:27b,每个 Agent 任务——包括解释 Prompt、生成摘要、推理数据——都会自动路由到本地 Ollama 模型,无需任何外部 API 调用。工具配置中禁用了网页搜索以确保隐私和防止外发请求。
7.3 配置中的关键字段解释
| 字段 | 值 | 为什么 |
|---|---|---|
api |
"openai-completions" |
对于 Ollama(及其他非 OpenAI Provider),必须使用 openai-completions |
apiKey |
"ollama-local" |
必填字段,但 Ollama 实际上会忽略此值 |
reasoning |
false |
Qwen3.5 模型在 reasoning: false 下处理 OpenClaw 工具调用更可靠 |
contextWindow |
131072 |
Qwen3.5 模型 128K 是 24GB+ 显存硬件上的安全默认值 |
cost |
全部 0 |
由于模型在本地运行,所有成本值都设为零 |
model.primary |
"ollama/qwen3.5:27b" |
provider名/模型id 格式,provider 名对应 providers 下的键名 |
7.4 兼容性字段(部分模型需要)
对于非标准 Provider,supportsDeveloperRole 会自动检测为 false。但 Ollama 未被明确列入 isNonStandard 检查中,所以 compat 值有时需要显式设置。
如果你遇到系统 Prompt 不加载等奇怪问题,试试添加 compat 字段:
{
"id": "qwen3.5:27b",
"reasoning": false,
"contextWindow": 131072,
"maxTokens": 8192,
"compat": {
"supportsDeveloperRole": false,
"supportsReasoningEffort": false
}
}
7.5 验证配置
# 检查 Ollama 正在运行
curl http://localhost:11434/api/tags
# → 应返回包含你模型的 JSON
# 确认模型名称与配置一致
ollama list
# NAME ID SIZE MODIFIED
# qwen3.5:27b abc123... 17 GB 2 hours ago
# 检查 OpenClaw 配置
openclaw doctor
⚠️ 模型名称必须与你实际拉取的完全一致。运行
ollama list查看可用模型的准确名称。
8. 上下文窗口:本地模型最大的坑
这是本地部署中最容易踩的坑,值得专门拿出来讲。
问题是什么?
OpenClaw 默认的上下文窗口可能很小(约 8K),这甚至无法处理 OpenClaw 自己的 .md 指令文件。
建议运行至少 32K token 上下文长度的模型。更多信息请参阅 Ollama 的上下文长度文档。
不同显存下的建议
| 显存 | 建议 contextWindow | 说明 |
|---|---|---|
| 8 GB | 8192 - 16384 |
刚够基本对话 |
| 16 GB | 32768 |
16GB 显存建议设为 32768 以避免质量下降 |
| 24 GB+ | 131072 (128K) |
Qwen3.5 模型 128K 是 24GB+ 硬件上的安全默认值 |
| 48 GB+ | 262144 (256K) |
可以处理大型代码库和长对话 |
如何调整 Ollama 的上下文长度
方法一:在 Ollama 中创建自定义模型(Modelfile)
# 创建 Modelfile
cat > Modelfile << 'EOF'
FROM qwen3.5:27b
PARAMETER num_ctx 32768
EOF
# 创建自定义模型
ollama create qwen3.5-27b-32k -f Modelfile
# 在 openclaw.json 中使用新的模型名
# "id": "qwen3.5-27b-32k"
方法二:通过环境变量设置
# 设置 Ollama 的默认上下文长度
OLLAMA_NUM_CTX=32768 ollama serve
方法三:在 openclaw.json 的 contextWindow 字段中设置
{
"id": "qwen3.5:27b",
"contextWindow": 32768 // OpenClaw 会据此管理上下文
}
🚨 上下文窗口过小的典型症状:
- Agent 忘记之前的对话内容
- 系统 Prompt 不加载(模型回复不像 OpenClaw Agent)
- 工具调用返回格式错误
- Context Compaction 频繁触发,丢失关键信息
9. 实战:用本地模型让 Agent 分析私有数据
这个模式特别适合私有数据分析、内部工具,以及任何数据必须保留在设备上的工作流。
9.1 场景:分析本地 CSV 销售数据
假设你有一个包含客户订单的 CSV 文件,数据中有真实姓名、手机号、地址——绝对不能上传到云端。
9.2 启动 Gateway
# 终端 1:确保 Ollama 在运行
ollama serve
# 终端 2:启动 OpenClaw Gateway
openclaw gateway --force
Gateway 作为系统的执行层,处理 Agent 请求、加载工作区 Skill、调用本地工具,并将推理调用路由到 Ollama 模型。
9.3 与 Agent 对话
💬 你:分析 ~/data/sales_2025.csv,告诉我哪个月销售最好,
哪个产品利润最高,生成一个摘要报告保存到 ~/reports/
🤖 Agent(本地 Qwen3.5 推理):
[调用 exec 工具] head -n 5 ~/data/sales_2025.csv
[读取文件] 分析 CSV 结构...
[调用 exec 工具] python3 analyze.py ~/data/sales_2025.csv
📊 分析完成!
- 销售最好的月份:11月(双十一效应),总额 ¥2,847,000
- 利润最高的产品:智能手表 Pro,毛利率 42.3%
- 报告已保存到 ~/reports/sales_summary_2025.md
整个过程中没有任何数据离开你的机器 🔒
一个用户请求可以触发多步骤工作流,而不仅仅是单次文本回复。
9.4 实战效果对比
OpenClaw 调用文件系统 Skill 遍历目录 → Ollama 读取代码并进行逻辑推理 → OpenClaw 组织推理结果并写入新文件。这比把代码片段复制到 ChatGPT 效率高得多,而且数据永远不会离开本地机器。
10. 调优技巧:让本地模型不再啰嗦
本地模型有一个通病:太啰嗦。它们喜欢过度解释、输出原始 JSON、描述工具而不是直接使用工具。
10.1 在 SOUL.md 中添加简洁规则
本地模型经常过度解释并且喜欢输出 JSON。你可以在 SOUL.md 和模型系统 Prompt 两个地方进行调整。
在你的项目根目录或 ~/.openclaw/ 下创建 SOUL.md:
## 简洁规则
保持简洁。
不要输出 Skill 文档原文。
不要打印原始 JSON 响应。
不要详细解释你将要做什么。
任务成功后,用一句话确认即可。
这不会让每个模型都变得简洁,但效果比很多人预期的要好。
10.2 通过 Modelfile 烘烤行为
有些模型会描述工具而不是直接使用它们,或者每个操作都要请求许可。自定义 Ollama Modelfile 可以将"直接使用工具"的行为烘焙进模型。
cat > Modelfile << 'EOF'
FROM qwen3.5:27b
PARAMETER num_ctx 32768
SYSTEM """
你是一个高效的助手。
- 直接执行任务,不要先解释你要做什么
- 使用工具时直接调用,不要描述工具
- 完成后用一句话总结结果
- 不要输出原始 JSON
"""
EOF
ollama create qwen3.5-27b-agent -f Modelfile
10.3 速度优化
如果你在 27B 模型上获得低于 20 tok/s 的速度,检查是否有其他进程在使用 GPU。关闭任何运行 WebGL 或视频的浏览器标签页。在 Mac 上,活动监视器 → GPU 历史记录 会显示什么在竞争统一内存。
11. 混合架构:本地 + 云端,鱼和熊掌兼得
我的实际建议很简单:使用混合设置。让本地处理低成本任务,让云端模型处理"需要深度思考"的部分和长文写作。OpenClaw 支持 per-agent 和 per-task 路由,你不会被锁定在单一 Provider。
11.1 三级模型路由配置
// ~/.openclaw/openclaw.json — 混合架构
{
"models": {
"providers": {
// 云端:处理复杂任务
"anthropic": {
"apiKey": "${ANTHROPIC_API_KEY}",
"models": [
{
"id": "claude-sonnet-4-20250514",
"reasoning": true,
"contextWindow": 200000,
"maxTokens": 8192
}
]
},
// 本地:处理日常任务
"ollama": {
"baseUrl": "http://localhost:11434/v1",
"apiKey": "ollama-local",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5:27b",
"reasoning": false,
"contextWindow": 131072,
"maxTokens": 8192,
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:27b" // 日常用本地,免费
// 需要高质量时手动切换到 anthropic/claude-sonnet-4-20250514
}
}
}
}
11.2 什么时候用本地,什么时候用云端?
┌───────────────────────────────────────────────────────┐
│ 任务路由决策 │
│ │
│ 🏠 本地 Ollama(免费 + 隐私) │
│ ├── 日志清理和摘要 │
│ ├── JSON 格式化 │
│ ├── 消息路由 │
│ ├── 简单代码生成(CRUD、脚手架) │
│ ├── 文件操作和简单重构 │
│ ├── 包含敏感数据的任务(客户信息、财务数据) │
│ └── 定时任务(每日报告等,不想按 token 付费) │
│ │
│ ☁️ 云端 Claude/GPT(质量优先) │
│ ├── 复杂架构设计 │
│ ├── 多文件大型重构 │
│ ├── 复杂 Bug 调试 │
│ ├── 长文写作和深度分析 │
│ └── 需要最新知识的任务 │
└───────────────────────────────────────────────────────┘
💡 保留一个本地 Ollama 模型作为终极后备,应对离线工作和云端宕机的情况。
12. 常见问题排查
问题 1:Ollama 没有运行
# 检查 Ollama 是否在运行
curl http://localhost:11434/api/tags
# 如果没有运行,手动启动
ollama serve
# 如果是远程机器,需要绑定到所有接口
OLLAMA_HOST=0.0.0.0 ollama serve
问题 2:API Key 错误
如果看到 No API key found for provider "ollama" 错误,需要通过 openclaw agents add 配置 Agent 的认证。
确保 openclaw.json 中有 "apiKey": "ollama-local" 字段。
问题 3:工具调用失败(模型输出 JSON 而不是调用工具)
工具调用失败时,在模型配置中设置 "reasoning": false,并优先使用 Qwen3.5 模型。如果工具调用仍然出问题,将 Ollama 更新到最新版本。官方 Provider 集成修复了多个边缘情况。
# 更新 Ollama 到最新版
curl -fsSL https://ollama.com/install.sh | sh
问题 4:模型回复不像 OpenClaw Agent(不使用工具,自称是通用 AI)
这通常是因为系统 Prompt 没有在冷启动时加载。模式表现为:工具调用正常,但系统 Prompt 不加载。
解决方案:添加 compat 字段:
"compat": {
"supportsDeveloperRole": false,
"supportsReasoningEffort": false
}
问题 5:Memory 搜索返回不相关结果
如果 memory_search 返回无关结果,原因可能是 memory 目录下有旧数据,embedding 索引是基于过期数据构建的。
# 删除旧的 memory 文件
rm ~/.openclaw/workspace-{agent}/memory/旧日期.md
rm ~/.openclaw/memory/{agent}.sqlite
# SQLite 索引会自动从现有 memory 文件重建
问题 6:速度太慢
# 检查是否有其他进程占用 GPU
nvidia-smi # NVIDIA GPU
# 或 Mac: 活动监视器 → GPU 历史记录
# 试试更小的模型
ollama pull qwen3.5:35b-a3b # MoE,速度快很多
# 减小上下文窗口
# contextWindow: 32768 而不是 131072
问题 7:ollama launch 报 unknown command
如果看到 Error: unknown command "launch" for "ollama",说明 Ollama 版本太旧,更新后即可正常使用。
# 更新 Ollama
curl -fsSL https://ollama.com/install.sh | sh
📋 速查卡:一页纸看完所有配置
# ===== 安装 =====
curl -fsSL https://ollama.com/install.sh | sh # 安装 Ollama
npm install -g @openclaw/cli # 安装 OpenClaw
ollama pull qwen3.5:27b # 拉取模型
# ===== 一键启动(最快方式) =====
ollama launch openclaw # 自动配置并启动
# ===== 或手动配置(完全控制) =====
# 编辑 ~/.openclaw/openclaw.json
# 参考本文第 7 节的完整配置模板
# ===== 验证 =====
ollama list # 确认模型名称
curl http://localhost:11434/api/tags # 确认 Ollama 运行中
openclaw doctor # 检查 OpenClaw 配置
# ===== 调试 =====
ollama serve # 手动启动 Ollama
openclaw gateway --force # 强制启动 Gateway
# ===== 自定义模型(上下文窗口) =====
echo 'FROM qwen3.5:27b\nPARAMETER num_ctx 32768' > Modelfile
ollama create qwen-32k -f Modelfile
// ===== 最小可用配置 =====
// ~/.openclaw/openclaw.json
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434/v1",
"apiKey": "ollama-local",
"api": "openai-completions",
"models": [{
"id": "qwen3.5:27b", // ← 改成你的模型名
"reasoning": false,
"contextWindow": 32768, // ← 根据显存调整
"maxTokens": 8192,
"cost": {"input":0,"output":0,"cacheRead":0,"cacheWrite":0}
}]
}
}
},
"agents": {
"defaults": {
"model": { "primary": "ollama/qwen3.5:27b" }
}
}
}
📚 参考资料
- Ollama 官方 OpenClaw 集成文档
- Ollama 官方博客:OpenClaw
- OpenClaw Ollama Provider 配置文档
- Qwen3.5 模型系列 — Ollama 库
- Qwen3.5 HuggingFace 模型页
- OpenClaw 本地部署指南
- haimaker.ai — 2026 年 OpenClaw 最佳本地模型排行
- DataCamp — OpenClaw + Ollama 构建本地数据分析师
如果觉得有帮助,欢迎 点赞 👍 收藏 ⭐ 关注 🔔,有问题评论区见!
本文为原创内容,转载请注明出处。
更多推荐

所有评论(0)