Windows下OpenClaw安装指南:对接ollama的GLM-4.7-Flash模型
本文介绍了如何在星图GPU平台上自动化部署【ollama】GLM-4.7-Flash镜像,实现本地化AI智能体解决方案。该轻量级模型特别适合自动化办公场景,如文件整理、数据提取等重复性工作,所有数据处理均在本地完成,确保数据安全与隐私保护。
Windows下OpenClaw安装指南:对接ollama的GLM-4.7-Flash模型
1. 为什么选择OpenClaw+GLM-4.7-Flash组合
去年我在尝试自动化办公流程时,发现市面上的RPA工具要么太笨重,要么需要频繁上传敏感数据到云端。直到遇到OpenClaw这个开源的本地化AI智能体框架,配合ollama部署的GLM-4.7-Flash轻量模型,终于找到了一个既安全又灵活的解决方案。
这个组合最吸引我的三点在于:
- 完全本地化:所有数据处理和模型推理都在本机完成,我的客户资料和财务数据无需离开电脑
- 轻量高效:GLM-4.7-Flash模型体积仅4.7B参数,在我的Surface笔记本上也能流畅运行
- 操作直观:通过自然语言就能指挥AI完成文件整理、数据提取等重复性工作
2. 环境准备与基础安装
2.1 系统要求检查
在开始前,请确保你的Windows设备满足以下条件:
- Windows 10/11 64位系统
- PowerShell 5.1或更高版本
- 至少8GB空闲内存(GLM-4.7-Flash运行时需要约6GB)
- 稳定的网络连接(用于下载依赖)
建议关闭杀毒软件实时防护(安装完成后再开启),避免误拦截安装脚本。
2.2 Node.js环境配置
OpenClaw基于Node.js开发,我们需要先配置好运行环境:
# 以管理员身份打开PowerShell执行
winget install OpenJS.NodeJS.LTS
安装完成后验证版本:
node -v # 应显示v18.x或更高
npm -v # 应显示9.x或更高
如果遇到权限问题,可以尝试:
Set-ExecutionPolicy RemoteSigned -Force
3. OpenClaw核心安装流程
3.1 全局安装OpenClaw
在管理员权限的PowerShell中执行:
npm install -g openclaw --registry=https://registry.npmjs.org/
安装完成后验证:
openclaw -v # 应显示版本号如1.2.3
如果遇到command not found错误,可能是环境变量未更新,尝试:
refreshenv
3.2 初始化配置向导
运行配置向导:
openclaw onboard
在交互式向导中,我建议这样选择:
- Mode:选择
Advanced(我们需要自定义模型配置) - Provider:选择
Skip for now(稍后手动配置ollama) - Default model:任意选择不影响后续配置
- Channels:建议
Skip for now(先完成核心功能验证) - Skills:选择
Yes启用基础技能模块
4. 对接ollama的GLM-4.7-Flash模型
4.1 本地模型服务准备
假设你已经通过ollama部署了GLM-4.7-Flash模型,服务地址通常是:
http://localhost:11434
验证模型是否正常运行:
curl http://localhost:11434/api/generate -d '{
"model": "glm-4.7-flash",
"prompt": "你好"
}'
4.2 OpenClaw模型配置
编辑配置文件~/.openclaw/openclaw.json,在models.providers节点下新增:
{
"models": {
"providers": {
"ollama-glm": {
"baseUrl": "http://localhost:11434",
"api": "openai-completions",
"models": [
{
"id": "glm-4.7-flash",
"name": "GLM-4.7-Flash (Ollama)",
"contextWindow": 4096,
"maxTokens": 2048
}
]
}
}
}
}
保存后重启网关服务:
openclaw gateway restart
4.3 模型连接验证
检查模型是否成功加载:
openclaw models list
应该能看到类似输出:
✔ ollama-glm
└─ GLM-4.7-Flash (Ollama) [glm-4.7-flash]
5. 常见问题排查指南
5.1 安装阶段问题
问题1:npm install时报权限错误
- 解决方案:
然后将npm config set prefix "C:\nodejs\global" npm config set cache "C:\nodejs\cache"C:\nodejs\global添加到系统PATH
问题2:openclaw命令无法识别
- 解决方案:
将输出路径添加到系统PATHnpm bin -g
5.2 模型连接问题
问题3:模型列表显示但无法调用
- 检查ollama服务是否运行:
Get-Process ollama - 检查防火墙是否放行11434端口
问题4:API响应超时
- 尝试减小
maxTokens参数值 - 在ollama启动时增加显存限制:
ollama serve --num-gpu-layers 20
6. 初体验:用自然语言操作电脑
完成所有配置后,访问http://localhost:18789打开控制台。试着输入:
"帮我整理桌面上的PDF文件,按日期重命名后存放到D:/Documents"
你会看到OpenClaw自动:
- 扫描桌面文件
- 提取PDF的创建日期
- 执行重命名和分类存储
整个过程不需要编写任何代码,完全通过GLM-4.7-Flash模型理解你的意图并拆解为具体操作。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐



所有评论(0)