OpenClaw+GLM-4.7-Flash:10分钟搭建个人AI助手

1. 为什么选择这个组合?

上周我在调试一个自动化脚本时,突然意识到:为什么不让AI自己操作电脑完成任务?这个念头让我开始寻找解决方案。经过几轮测试,我发现OpenClaw+GLM-4.7-Flash的组合特别适合个人开发者快速搭建AI助手。

GLM-4.7-Flash作为轻量级模型,响应速度快且对硬件要求低;而OpenClaw则提供了直接操控电脑的能力。两者结合后,我的MacBook Pro上就能跑起来一个能真正"动手做事"的AI助手。

2. 环境准备与快速安装

2.1 基础环境检查

在开始前,请确保你的设备满足:

  • 操作系统:macOS/Linux(Windows需WSL2)
  • 内存:至少8GB空闲内存
  • 网络:能正常访问GitHub和模型下载源

我用的是一台2020款M1 MacBook Air,实测完全够用。

2.2 三步安装法

第一步:安装OpenClaw核心

curl -fsSL https://openclaw.ai/install.sh | bash

这个命令会自动完成依赖检查和主程序安装,整个过程约2分钟。

第二步:部署GLM-4.7-Flash

ollama pull glm-4.7-flash

模型下载大小约4.7GB,我的百兆宽带用了6分钟完成。

第三步:初始化配置

openclaw onboard --provider ollama --model glm-4.7-flash

向导会询问几个简单问题,我都选择了默认选项。特别提醒:当问到"Enable local file access?"时,根据你的安全需求选择是否允许AI访问本地文件。

3. 关键配置详解

安装完成后,需要调整几个核心配置才能发挥最大效能。

3.1 模型连接配置

编辑~/.openclaw/openclaw.json,找到models部分:

"models": {
  "providers": {
    "ollama": {
      "baseUrl": "http://localhost:11434",
      "api": "ollama",
      "models": [
        {
          "id": "glm-4.7-flash",
          "name": "GLM-4.7-Flash (Local)",
          "contextWindow": 8192
        }
      ]
    }
  }
}

这里特别注意baseUrl要对应ollama的服务端口(默认11434)。

3.2 基础技能启用

OpenClaw通过技能(Skills)扩展能力,初次使用建议启用:

openclaw skills enable file-manager web-browser

这会让AI具备基本的文件管理和网页操作能力。我后来还加装了email-helper来处理邮件自动归类。

4. 启动与测试

4.1 服务启动

开两个终端窗口分别运行:

# 窗口1:启动ollama服务
ollama serve

# 窗口2:启动OpenClaw网关
openclaw gateway start

看到"Gateway ready at http://127.0.0.1:18789"提示即表示成功。

4.2 快速测试任务

访问http://127.0.0.1:18789进入控制台,尝试以下任务:

测试1:文件操作 输入:"在我的下载文件夹创建一个test.txt文件,内容写'Hello OpenClaw'" 我观察到AI准确地找到了下载目录并创建了文件。

测试2:网页检索 输入:"搜索2024年巴黎奥运会吉祥物名称并保存结果到notes.md" AI自动打开浏览器完成搜索,并将结果整理成Markdown格式。

5. 性能优化建议

经过一周的使用,我总结了几个提升体验的技巧:

模型参数调优 在ollama运行时添加:

ollama serve --num-ctx 4096 --num-threads 4

这能提高模型上下文处理能力,我的M1上响应速度提升了约30%。

OpenClaw内存限制 编辑~/.openclaw/config.json增加:

"memory": {
  "maxCacheSize": "500MB"
}

避免长时间运行后内存占用过高。

定时任务设置 使用crontab添加:

0 */6 * * * pkill -f "openclaw gateway" && openclaw gateway start

每6小时重启服务防止内存泄漏。

6. 实际应用案例

分享两个我日常使用中的真实场景:

晨间信息简报 每天早上8点,AI会自动:

  1. 打开指定新闻网站
  2. 抓取科技板块头条
  3. 生成摘要并发送到我的邮箱
  4. 将完整内容保存到Notion数据库

整个过程完全自动化,我只用看结果。

代码辅助审查 当我完成一个Git提交后,AI会:

  1. 读取最新diff
  2. 检查常见代码问题
  3. 生成改进建议
  4. 在VSCode中创建TODO注释

这帮我发现了多个潜在的内存泄漏问题。

7. 遇到的坑与解决方案

中文编码问题 初期遇到中文内容乱码,解决方案是在ollama启动时指定:

LC_ALL=zh_CN.UTF-8 ollama serve

权限拒绝错误 当AI尝试访问受限区域时,会报"Permission denied"。我的做法是:

  1. 明确限制工作目录
  2. 使用sandbox模式运行敏感操作
openclaw gateway start --sandbox ~/ai_workspace

模型响应慢 发现有时GLM-4.7-Flash响应超过30秒,通过以下方法改善:

  1. 限制上下文长度
  2. 使用更精确的指令
  3. 在ollama配置中启用GPU加速

获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐