OpenClaw 配置 Ollama 本地推理服务详细步骤
本文介绍了如何将Ollama本地模型接入OpenClaw的完整教程。主要内容包括:1)下载安装Ollama Windows版本;2)修改模型存储路径;3)通过终端命令下载模型;4)在OpenClaw中配置Ollama连接(地址为http://127.0.0.1:11434);5)测试模型可用性。教程提供了详细的图文步骤和自检清单,并解答了地址填写、模型识别等常见问题。适用于Windows10及以上
OpenClaw 连接 Ollama 本地模型教程
前置准备
- 已安装并能正常打开 OpenClaw Windows 客户端
- OpenClaw 顶部 Gateway 状态保持在线
- 电脑可正常联网,能访问 Ollama 官网
- 磁盘空间充足(本地模型占用空间较大)
- 提前确认待下载的模型名称(示例:gemma4:e4b)
OpenClaw 一键安装包地址:https://xiake.yun/api/download/package/14?promoCode=IV9D9D5198DC
图文步骤
步骤 1:打开 Ollama 官网下载安装包
访问 Ollama 官网首页:https://ollama.com/点击页面右上角 Download,准备获取最新版安装文件。

步骤 2:选择 Windows 版本下载
进入下载页后:
- 选择 Windows 选项卡
- 点击 Download for Windows等待安装包下载完成(需 Windows 10 及以上系统)。

步骤 3:安装 Ollama
双击下载好的安装程序,在安装窗口点击 Install,等待安装自动完成即可。

步骤 4:打开 Ollama 设置页
安装完成并启动 Ollama 后,在左侧菜单点击 Settings,准备调整模型存储位置。

步骤 5:修改模型存储路径
在设置页找到 Model location 选项:
- 点击 Browse,选择大容量磁盘目录(示例:E:\models)
- 也可保留默认路径直接使用

步骤 6:打开 Windows 终端
右键点击 Windows 开始菜单,选择 终端(Powershell),打开命令行窗口。

步骤 7:执行命令拉取并运行模型
在终端输入模型下载运行命令(示例):
plaintext
ollama run gemma4:e4b
第一次执行时,Ollama 会自动下载对应模型,下载完成后终端显示 success 即代表成功。

步骤 8:Ollama 客户端确认模型
返回 Ollama 客户端,在模型列表中找到刚下载的模型(如 gemma4:e4b),状态显示已下载即拉取成功。

步骤 9:OpenClaw 配置 Ollama 并测试

回到 OpenClaw 客户端:
- 点击右上角 设置
- 进入左侧 模型配置
- 找到 Ollama 选项
- 地址栏输入:
http://127.0.0.1:11434 - 点击 测试
- 点击右上角 保存全部配置测试成功后,OpenClaw 会自动识别已下载的本地模型。
步骤 10:聊天页选择 Ollama 模型
进入 OpenClaw 左侧 聊天 页面,在模型选择框搜索目标模型名称(如 gemma4:e4b),确认模型后标注 ollama 标签,点击选中。

步骤 11:发送消息验证模型可用性
选中模型后,在聊天输入框发送测试消息(示例:你好,你是什么模型),若页面正常返回内容,说明 Ollama 已成功接入 OpenClaw。

接入完成自检清单
- 已从 Ollama 官网下载并安装 Windows 版本
- Ollama 正常启动运行
- 已按需修改模型存储路径
- 终端执行
ollama run 模型名命令 - 模型下载完成,终端显示 success
- OpenClaw 中 Ollama 地址填写为
http://127.0.0.1:11434 - 点击测试并成功识别可用模型
- 保存全部配置
- 聊天页选中带 ollama 标签的模型
- 发送测试消息并收到正常回复
OpenClaw 一键安装包地址:https://xiake.yun/api/download/package/14?promoCode=IV9D9D5198DC
常见问题
1. Ollama 地址应该填什么?
本机默认填写:http://127.0.0.1:11434Ollama 安装在当前电脑时,直接使用该地址即可。
2. 点击测试后未识别到模型?
优先排查以下项:
- Ollama 是否正常启动
- 是否在终端执行过
ollama run 模型名 - 模型是否已完整下载
- 地址是否填写为
http://127.0.0.1:11434 - 是否被防火墙或安全软件拦截
3. 为什么要在终端先运行一次模型?
ollama run 模型名第一次执行会自动下载模型,只有模型完整保存到本地后,OpenClaw 才能识别并调用。
4. 模型文件过大如何处理?
本地模型占用磁盘空间较多,系统盘空间不足时,建议先在 Ollama 设置中将 Model location 改到大容量磁盘,再下载模型。
参考链接
OpenClaw 一键安装包地址:https://xiake.yun/api/download/package/14?promoCode=IV9D9D5198DC
更多推荐


所有评论(0)