OpenClaw+GLM-4.7-Flash:10分钟搭建个人AI助手
本文介绍了如何在星图GPU平台上自动化部署【ollama】GLM-4.7-Flash镜像,快速搭建个人AI助手。该轻量级模型结合OpenClaw工具,可实现文件管理、网页检索等自动化任务,特别适合开发者用于日常代码审查、信息整理等场景,10分钟即可完成部署。
OpenClaw+GLM-4.7-Flash:10分钟搭建个人AI助手
1. 为什么选择这个组合?
上周我在调试一个自动化脚本时,突然意识到:为什么不让AI自己操作电脑完成任务?这个念头让我开始寻找解决方案。经过几轮测试,我发现OpenClaw+GLM-4.7-Flash的组合特别适合个人开发者快速搭建AI助手。
GLM-4.7-Flash作为轻量级模型,响应速度快且对硬件要求低;而OpenClaw则提供了直接操控电脑的能力。两者结合后,我的MacBook Pro上就能跑起来一个能真正"动手做事"的AI助手。
2. 环境准备与快速安装
2.1 基础环境检查
在开始前,请确保你的设备满足:
- 操作系统:macOS/Linux(Windows需WSL2)
- 内存:至少8GB空闲内存
- 网络:能正常访问GitHub和模型下载源
我用的是一台2020款M1 MacBook Air,实测完全够用。
2.2 三步安装法
第一步:安装OpenClaw核心
curl -fsSL https://openclaw.ai/install.sh | bash
这个命令会自动完成依赖检查和主程序安装,整个过程约2分钟。
第二步:部署GLM-4.7-Flash
ollama pull glm-4.7-flash
模型下载大小约4.7GB,我的百兆宽带用了6分钟完成。
第三步:初始化配置
openclaw onboard --provider ollama --model glm-4.7-flash
向导会询问几个简单问题,我都选择了默认选项。特别提醒:当问到"Enable local file access?"时,根据你的安全需求选择是否允许AI访问本地文件。
3. 关键配置详解
安装完成后,需要调整几个核心配置才能发挥最大效能。
3.1 模型连接配置
编辑~/.openclaw/openclaw.json,找到models部分:
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434",
"api": "ollama",
"models": [
{
"id": "glm-4.7-flash",
"name": "GLM-4.7-Flash (Local)",
"contextWindow": 8192
}
]
}
}
}
这里特别注意baseUrl要对应ollama的服务端口(默认11434)。
3.2 基础技能启用
OpenClaw通过技能(Skills)扩展能力,初次使用建议启用:
openclaw skills enable file-manager web-browser
这会让AI具备基本的文件管理和网页操作能力。我后来还加装了email-helper来处理邮件自动归类。
4. 启动与测试
4.1 服务启动
开两个终端窗口分别运行:
# 窗口1:启动ollama服务
ollama serve
# 窗口2:启动OpenClaw网关
openclaw gateway start
看到"Gateway ready at http://127.0.0.1:18789"提示即表示成功。
4.2 快速测试任务
访问http://127.0.0.1:18789进入控制台,尝试以下任务:
测试1:文件操作 输入:"在我的下载文件夹创建一个test.txt文件,内容写'Hello OpenClaw'" 我观察到AI准确地找到了下载目录并创建了文件。
测试2:网页检索 输入:"搜索2024年巴黎奥运会吉祥物名称并保存结果到notes.md" AI自动打开浏览器完成搜索,并将结果整理成Markdown格式。
5. 性能优化建议
经过一周的使用,我总结了几个提升体验的技巧:
模型参数调优 在ollama运行时添加:
ollama serve --num-ctx 4096 --num-threads 4
这能提高模型上下文处理能力,我的M1上响应速度提升了约30%。
OpenClaw内存限制 编辑~/.openclaw/config.json增加:
"memory": {
"maxCacheSize": "500MB"
}
避免长时间运行后内存占用过高。
定时任务设置 使用crontab添加:
0 */6 * * * pkill -f "openclaw gateway" && openclaw gateway start
每6小时重启服务防止内存泄漏。
6. 实际应用案例
分享两个我日常使用中的真实场景:
晨间信息简报 每天早上8点,AI会自动:
- 打开指定新闻网站
- 抓取科技板块头条
- 生成摘要并发送到我的邮箱
- 将完整内容保存到Notion数据库
整个过程完全自动化,我只用看结果。
代码辅助审查 当我完成一个Git提交后,AI会:
- 读取最新diff
- 检查常见代码问题
- 生成改进建议
- 在VSCode中创建TODO注释
这帮我发现了多个潜在的内存泄漏问题。
7. 遇到的坑与解决方案
中文编码问题 初期遇到中文内容乱码,解决方案是在ollama启动时指定:
LC_ALL=zh_CN.UTF-8 ollama serve
权限拒绝错误 当AI尝试访问受限区域时,会报"Permission denied"。我的做法是:
- 明确限制工作目录
- 使用sandbox模式运行敏感操作
openclaw gateway start --sandbox ~/ai_workspace
模型响应慢 发现有时GLM-4.7-Flash响应超过30秒,通过以下方法改善:
- 限制上下文长度
- 使用更精确的指令
- 在ollama配置中启用GPU加速
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐

所有评论(0)