Windows下OpenClaw部署教程:对接GLM-4.7-Flash模型详解

1. 为什么选择OpenClaw+GLM-4本地组合

去年我在处理日常办公自动化时,发现很多重复性工作既不适合用Python脚本硬编码,又不想把敏感数据传到第三方SaaS平台。直到遇到OpenClaw这个开源智能体框架,配合本地部署的大模型,终于找到了两全其美的解决方案。

这次要分享的是在Windows环境下部署OpenClaw,并对接ollama平台的GLM-4.7-Flash模型的完整过程。这个组合特别适合需要处理中文任务的场景——GLM-4对中文理解优秀,而OpenClaw能将它转化为实际的自动化操作。最让我满意的是所有数据都在本地流转,合同文件、财务数据这些敏感信息完全不用出内网。

2. 环境准备与基础安装

2.1 系统权限与依赖检查

首先要用管理员身份打开PowerShell(这点非常重要,普通用户权限会导致后续安装失败)。我建议先执行以下命令检查基础环境:

# 检查PowerShell版本(需5.1+)
$PSVersionTable.PSVersion

# 检查Node.js版本(需v18+)
node -v

# 检查npm版本
npm -v

如果缺少Node.js环境,推荐用Windows包管理器winget安装:

winget install OpenJS.NodeJS.LTS

2.2 OpenClaw核心安装

在确保网络通畅的情况下(建议关闭VPN),执行官方安装命令:

npm install -g openclaw --registry=https://registry.npmmirror.com

这里有个小技巧:国内用户加上--registry参数能显著提升安装速度。安装完成后验证版本:

openclaw -v
# 预期输出类似:openclaw/1.2.3 win32-x64 node-v18.16.0

3. 配置向导关键步骤

3.1 初始化设置向导

执行初始化命令会启动交互式配置:

openclaw onboard

在配置过程中有几个关键选择需要特别注意:

  1. Mode选择:新手建议选QuickStart,它会自动配置合理的默认值
  2. Provider选择:我们后续要对接本地GLM模型,这里先选Skip for now
  3. Skills选择:建议全选Yes启用基础技能包

3.2 启动网关服务

配置完成后,启动服务端:

openclaw gateway start

正常启动后会看到类似输出:

[Gateway] Running at http://127.0.0.1:18789
[Gateway] Ready for connections

此时在浏览器访问http://localhost:18789就能看到OpenClaw的Web控制台了。

4. 对接GLM-4.7-Flash模型

4.1 ollama服务准备

假设你已经在本机部署了ollama服务(端口默认11434),并且拉取了GLM-4.7-Flash镜像。如果没有,可以用以下命令快速部署:

ollama pull glm-4-flash
ollama serve

4.2 修改OpenClaw配置

找到配置文件C:\Users\[你的用户名]\.openclaw\openclaw.json,在models.providers节点下新增:

{
  "models": {
    "providers": {
      "ollama-glm": {
        "baseUrl": "http://localhost:11434",
        "api": "openai-completions",
        "models": [
          {
            "id": "glm-4-flash",
            "name": "GLM-4-Flash Local",
            "contextWindow": 32768
          }
        ]
      }
    }
  }
}

4.3 验证模型连接

重启网关服务后验证模型是否可用:

openclaw gateway restart
openclaw models list

正常情况应该能看到GLM-4-Flash Local出现在模型列表中。你还可以在Web控制台发送测试消息,观察模型响应是否正常。

5. 典型问题解决方案

5.1 安装时报错"EPERM"

这是Windows权限问题的典型表现,解决方法:

  1. 关闭所有IDE和终端
  2. 重新以管理员身份运行PowerShell
  3. 执行清理后重试:
npm cache clean --force
npm install -g openclaw

5.2 模型响应超时

如果模型列表能显示但实际调用超时,检查:

  1. ollama服务是否正常运行(ollama list
  2. Windows防火墙是否放行了11434端口
  3. 配置文件中的baseUrl是否写成了localhost(建议改用127.0.0.1)

5.3 Web控制台无法访问

确认网关服务确实在运行后,尝试:

  1. 检查端口是否冲突(netstat -ano | findstr 18789
  2. 修改启动端口后重试:
openclaw gateway --port 18790

6. 自动化场景初体验

配置完成后,你可以尝试这些基础自动化:

  • 文件整理:"把下载文件夹里所有的PDF按日期重命名并移动到Documents"
  • 数据提取:"从最近5封邮件附件中的Excel里提取金额大于1万的记录"
  • 内容生成:"用Markdown格式写份本周工作报告,包含已完成和待办事项"

我特别喜欢的一个功能是让OpenClaw+GLM组合帮我处理会议录音转写——把音频文件拖到指定文件夹,它会自动转文字、提取关键决策点,最后生成待办事项同步到飞书。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐