Windows下OpenClaw安装指南:对接ollama的GLM-4.7-Flash模型

1. 为什么选择OpenClaw+GLM-4.7-Flash组合

去年我在尝试自动化办公流程时,发现市面上的RPA工具要么太笨重,要么需要频繁上传敏感数据到云端。直到遇到OpenClaw这个开源的本地化AI智能体框架,配合ollama部署的GLM-4.7-Flash轻量模型,终于找到了一个既安全又灵活的解决方案。

这个组合最吸引我的三点在于:

  • 完全本地化:所有数据处理和模型推理都在本机完成,我的客户资料和财务数据无需离开电脑
  • 轻量高效:GLM-4.7-Flash模型体积仅4.7B参数,在我的Surface笔记本上也能流畅运行
  • 操作直观:通过自然语言就能指挥AI完成文件整理、数据提取等重复性工作

2. 环境准备与基础安装

2.1 系统要求检查

在开始前,请确保你的Windows设备满足以下条件:

  • Windows 10/11 64位系统
  • PowerShell 5.1或更高版本
  • 至少8GB空闲内存(GLM-4.7-Flash运行时需要约6GB)
  • 稳定的网络连接(用于下载依赖)

建议关闭杀毒软件实时防护(安装完成后再开启),避免误拦截安装脚本。

2.2 Node.js环境配置

OpenClaw基于Node.js开发,我们需要先配置好运行环境:

# 以管理员身份打开PowerShell执行
winget install OpenJS.NodeJS.LTS

安装完成后验证版本:

node -v  # 应显示v18.x或更高
npm -v   # 应显示9.x或更高

如果遇到权限问题,可以尝试:

Set-ExecutionPolicy RemoteSigned -Force

3. OpenClaw核心安装流程

3.1 全局安装OpenClaw

在管理员权限的PowerShell中执行:

npm install -g openclaw --registry=https://registry.npmjs.org/

安装完成后验证:

openclaw -v  # 应显示版本号如1.2.3

如果遇到command not found错误,可能是环境变量未更新,尝试:

refreshenv

3.2 初始化配置向导

运行配置向导:

openclaw onboard

在交互式向导中,我建议这样选择:

  1. Mode:选择Advanced(我们需要自定义模型配置)
  2. Provider:选择Skip for now(稍后手动配置ollama)
  3. Default model:任意选择不影响后续配置
  4. Channels:建议Skip for now(先完成核心功能验证)
  5. Skills:选择Yes启用基础技能模块

4. 对接ollama的GLM-4.7-Flash模型

4.1 本地模型服务准备

假设你已经通过ollama部署了GLM-4.7-Flash模型,服务地址通常是:

http://localhost:11434

验证模型是否正常运行:

curl http://localhost:11434/api/generate -d '{
  "model": "glm-4.7-flash",
  "prompt": "你好"
}'

4.2 OpenClaw模型配置

编辑配置文件~/.openclaw/openclaw.json,在models.providers节点下新增:

{
  "models": {
    "providers": {
      "ollama-glm": {
        "baseUrl": "http://localhost:11434",
        "api": "openai-completions",
        "models": [
          {
            "id": "glm-4.7-flash",
            "name": "GLM-4.7-Flash (Ollama)",
            "contextWindow": 4096,
            "maxTokens": 2048
          }
        ]
      }
    }
  }
}

保存后重启网关服务:

openclaw gateway restart

4.3 模型连接验证

检查模型是否成功加载:

openclaw models list

应该能看到类似输出:

✔ ollama-glm
  └─ GLM-4.7-Flash (Ollama) [glm-4.7-flash]

5. 常见问题排查指南

5.1 安装阶段问题

问题1:npm install时报权限错误

  • 解决方案:
    npm config set prefix "C:\nodejs\global"
    npm config set cache "C:\nodejs\cache"
    
    然后将C:\nodejs\global添加到系统PATH

问题2:openclaw命令无法识别

  • 解决方案:
    npm bin -g
    
    将输出路径添加到系统PATH

5.2 模型连接问题

问题3:模型列表显示但无法调用

  • 检查ollama服务是否运行:
    Get-Process ollama
    
  • 检查防火墙是否放行11434端口

问题4:API响应超时

  • 尝试减小maxTokens参数值
  • 在ollama启动时增加显存限制:
    ollama serve --num-gpu-layers 20
    

6. 初体验:用自然语言操作电脑

完成所有配置后,访问http://localhost:18789打开控制台。试着输入:

"帮我整理桌面上的PDF文件,按日期重命名后存放到D:/Documents"

你会看到OpenClaw自动:

  1. 扫描桌面文件
  2. 提取PDF的创建日期
  3. 执行重命名和分类存储

整个过程不需要编写任何代码,完全通过GLM-4.7-Flash模型理解你的意图并拆解为具体操作。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐