Windows下OpenClaw保姆级教程:GLM-4.7-Flash接口配置与飞书接入

1. 为什么选择OpenClaw+GLM-4.7-Flash组合

去年我在处理日常办公自动化时,发现很多重复性工作既耗时又容易出错。尝试过多个自动化工具后,最终被OpenClaw的本地化特性吸引——它不需要将敏感数据上传到第三方服务器,所有操作都在本地完成。而GLM-4.7-Flash作为轻量级模型,在保持较高推理速度的同时,对中文任务的支持尤其出色。

这个组合特别适合需要处理中文文档、又注重隐私安全的小团队。我曾用它们自动整理会议纪要、生成周报初稿,甚至处理飞书上的待办事项。下面分享的配置过程,包含了我踩过的所有坑和验证过的解决方案。

2. 环境准备与基础安装

2.1 系统要求检查

在开始前,请确保你的Windows系统满足:

  • Windows 10/11 64位专业版或企业版
  • PowerShell 5.1及以上版本(输入$PSVersionTable.PSVersion查看)
  • 至少8GB空闲内存(GLM-4.7-Flash运行时需要4-6GB)

2.2 管理员权限安装

  1. 右键点击开始菜单,选择"Windows PowerShell(管理员)"
  2. 执行以下命令安装Node.js(如果尚未安装):
winget install OpenJS.NodeJS.LTS
  1. 安装OpenClaw核心包:
npm install -g openclaw --registry=https://registry.npmjs.org/

这里我遇到过npm权限问题,如果报错可以尝试:

Set-ExecutionPolicy RemoteSigned -Force
npm config set prefix "C:\Program Files\nodejs\node_global"
  1. 验证安装:
openclaw --version
# 应输出类似 v0.8.1 的版本号

3. GLM-4.7-Flash接口配置

3.1 获取本地模型服务地址

假设你已经通过ollama部署了GLM-4.7-Flash,默认服务地址通常是:

http://localhost:11434/v1

可以通过以下命令测试服务是否正常:

curl -X POST "http://localhost:11434/v1/chat/completions" `
-H "Content-Type: application/json" `
-d '{"model": "glm-4-flash", "messages": [{"role": "user", "content": "你好"}]}'

3.2 修改openclaw.json配置

  1. 找到配置文件位置:
notepad "$env:USERPROFILE\.openclaw\openclaw.json"
  1. models.providers部分新增配置(注意JSON格式):
{
  "models": {
    "providers": {
      "glm-local": {
        "baseUrl": "http://localhost:11434/v1",
        "apiKey": "ollama", // ollama默认不需要真实key
        "api": "openai-completions",
        "models": [
          {
            "id": "glm-4-flash",
            "name": "GLM-4-Flash本地版",
            "contextWindow": 32768
          }
        ]
      }
    }
  }
}

这里有个易错点:ollama的API路径必须包含/v1后缀,否则会报404错误。

4. 飞书机器人接入实战

4.1 创建飞书自建应用

  1. 登录飞书开放平台
  2. 进入"开发者后台"→"企业自建应用"→"创建应用"
  3. 记录下App IDApp Secret

4.2 安装飞书插件

在PowerShell中执行:

openclaw plugins install @m1heng-clawd/feishu
openclaw plugins list

4.3 配置飞书通道

编辑openclaw.json,增加以下内容:

{
  "channels": {
    "feishu": {
      "enabled": true,
      "appId": "你的AppID",
      "appSecret": "你的AppSecret",
      "connectionMode": "websocket"
    }
  }
}

保存后重启服务:

openclaw gateway restart

5. 典型问题排查指南

5.1 环境变量报错处理

如果遇到Error: Cannot find module类错误,可能是Node路径问题:

  1. 检查系统环境变量:
[Environment]::GetEnvironmentVariable("Path", "User")
  1. 添加Node全局路径:
[Environment]::SetEnvironmentVariable(
  "Path",
  [Environment]::GetEnvironmentVariable("Path", "User") + ";C:\Program Files\nodejs\node_global",
  "User"
)

5.2 飞书消息无法接收

常见原因和解决方案:

  1. IP白名单未配置:在飞书应用后台添加服务器公网IP
    curl ifconfig.me
    
  2. 加密密钥未启用:在飞书后台开启"消息加密",然后在配置中添加:
    "encryptKey": "你的加密密钥"
    
  3. 权限未申请:确保在飞书后台申请了"接收消息"、"发送消息"等权限

5.3 模型响应超时

如果GLM-4.7-Flash响应慢,可以尝试:

  1. 在模型配置中增加超时设置:
    "timeout": 60000
    
  2. 检查ollama是否启用GPU加速:
    ollama show glm-4-flash --modelfile
    

6. 验证与使用示例

6.1 基础功能测试

启动交互式测试:

openclaw chat

尝试简单指令:

帮我列出C:\Downloads目录下所有PDF文件

6.2 飞书对话触发

  1. 在飞书群中@你的机器人
  2. 发送测试指令:
    请总结我昨天创建的文档
    
  3. OpenClaw会自动扫描你的文档目录并生成摘要

获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐