OpenClaw+GLM-4.7-Flash实战:5分钟搭建本地AI办公助手
本文介绍了如何在星图GPU平台上自动化部署【ollama】GLM-4.7-Flash镜像,快速搭建本地AI办公助手。该轻量级模型特别适合办公自动化场景,如自动处理PDF文件、提取关键数据并生成Excel表格,大幅提升日常工作效率。通过简单配置,用户可轻松实现5分钟内完成环境部署与任务执行。
OpenClaw+GLM-4.7-Flash实战:5分钟搭建本地AI办公助手
1. 为什么选择这个组合?
上周我需要处理一个重复性工作:每天要把收到的20多份PDF报告按日期重命名,提取关键数据做成Excel表格,再通过邮件发给团队。手动操作需要40分钟,直到发现OpenClaw+GLM-4.7-Flash这个组合。
GLM-4.7-Flash作为轻量级模型,在本地部署时响应速度比常规大模型快3倍左右,特别适合办公自动化这种需要快速响应的场景。而OpenClaw的鼠标键盘操控能力,让它能像真人一样操作我的电脑完成整个流程。
2. 环境准备与模型部署
2.1 快速部署GLM-4.7-Flash
使用ollama部署比想象中简单,一条命令搞定:
ollama pull glm-4.7-flash
ollama run glm-4.7-flash
服务默认运行在11434端口,可以用curl测试:
curl http://localhost:11434/api/generate -d '{
"model": "glm-4.7-flash",
"prompt": "你好"
}'
2.2 OpenClaw的极简安装
推荐用npm安装汉化版,国内访问更稳定:
sudo npm install -g @qingchencloud/openclaw-zh@latest
openclaw onboard
配置向导选择:
- Mode:
QuickStart - Provider:
Custom(后续手动配置GLM) - Skills: 全选(后续可删减)
3. 关键配置:对接本地模型
3.1 模型地址配置
修改~/.openclaw/openclaw.json,在models部分添加:
"providers": {
"glm-local": {
"baseUrl": "http://localhost:11434",
"api": "openai-completions",
"models": [
{
"id": "glm-4.7-flash",
"name": "本地GLM轻量版",
"contextWindow": 8192
}
]
}
}
重启网关使配置生效:
openclaw gateway restart
3.2 验证模型连通性
在终端执行:
openclaw models list
应该能看到glm-local/glm-4.7-flash状态为active。如果显示连接失败,检查ollama服务是否正常运行。
4. 办公自动化实战
4.1 文件整理技能安装
我们需要安装两个关键技能:
clawhub install file-organizer email-sender
安装后执行clawhub list --installed确认,应该能看到:
file-organizer@1.2.0email-sender@0.9.3
4.2 配置邮件发送
在用户目录创建.env文件:
EMAIL_HOST=smtp.163.com
EMAIL_PORT=465
EMAIL_USER=yourname@163.com
EMAIL_PASS=你的授权码
注意:务必使用SMTP授权码而非邮箱密码,163邮箱可在设置-客户端授权密码中生成。
4.3 完整任务执行
现在可以通过自然语言指令完成整个流程:
-
在OpenClaw控制台输入: "请处理~/Downloads/reports目录下的PDF文件,按'YYYY-MM-DD-文件名'格式重命名,提取所有金额数据生成summary.xlsx,并通过邮件发给team@company.com"
-
OpenClaw会依次执行:
- 遍历PDF文件并重命名
- 调用GLM模型解析PDF内容
- 生成结构化Excel表格
- 通过SMTP发送带附件的邮件
-
执行过程可以在
http://127.0.0.1:18789实时查看
5. 踩坑与优化建议
5.1 常见问题排查
PDF解析失败:
GLM-4.7-Flash对复杂表格识别有限,建议:
- 安装
pdf-text-extractor技能辅助 - 在指令中明确"仅提取金额数字"
邮件发送超时:
国内邮箱建议显式指定加密方式:
EMAIL_SECURE=true # 在.env中增加
5.2 性能优化技巧
-
模型参数调优:
在ollama运行时添加:ollama run glm-4.7-flash --numa --num-threads 4 -
OpenClaw缓存配置:
修改openclaw.json增加:"cache": { "enabled": true, "ttl": 300 } -
任务拆分策略:
对大批量文件处理,建议指令改为: "每次处理5个PDF,完成后通知我继续"
6. 安全注意事项
-
最小权限原则:
不要给OpenClaw管理员权限,建议新建专用用户:sudo useradd -m clawuser sudo chown -R clawuser ~/.openclaw -
敏感信息保护:
- 将
.env文件权限设为600:chmod 600 ~/.env - 定期清理OpenClaw日志:
openclaw logs clear --all
- 将
-
网络隔离:
如果通过公网访问ollama,务必配置防火墙规则:sudo ufw allow from 192.168.1.0/24 to any port 11434
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
更多推荐

所有评论(0)