OpenClaw+ollama-QwQ-32B:5步完成飞书机器人接入与对话触发

1. 为什么选择OpenClaw+ollama-QwQ-32B组合

去年我在团队内部尝试搭建自动化助手时,发现大多数方案要么需要将敏感数据上传到第三方云服务,要么配置复杂得令人望而却步。直到遇到OpenClaw这个开源的本地化AI智能体框架,配合ollama-QwQ-32B模型,才找到了理想的解决方案。

这个组合最吸引我的三个特点:

  • 数据不出本地:所有对话和文件处理都在内网或本机完成,特别适合处理合同、财务报表等敏感信息
  • 飞书深度集成:我们团队日常使用飞书办公,能直接在聊天窗口触发自动化任务
  • 模型可控性强:ollama-QwQ-32B在中文理解和代码生成上表现稳定,不像某些云端API存在响应延迟

记得第一次测试时,我让助手整理周报并发送给主管,原本需要半小时的手动操作,现在只需一句"帮我生成本周项目进展摘要并@王总"就完成了。这种效率提升让我决定把完整配置过程记录下来。

2. 基础环境准备

2.1 OpenClaw安装与初始化

在MacBook Pro上安装OpenClaw的过程出乎意料的简单。我使用的是官方推荐的一键安装方案:

curl -fsSL https://openclaw.ai/install.sh | bash

安装完成后,运行初始化向导。这里有个小技巧:如果网络环境不稳定,可以先跳过模型配置,后续再单独设置:

openclaw onboard --skip-models

初始化完成后,建议立即启动网关服务并保持运行:

openclaw gateway start

2.2 ollama-QwQ-32B模型部署

我们团队使用的是星图平台提供的ollama-QwQ-32B镜像。这个镜像已经预配置了CUDA加速,部署只需三条命令:

docker pull xingtu/ollama-qwq-32b
docker run -d -p 11434:11434 --gpus all xingtu/ollama-qwq-32b
curl http://localhost:11434/api/generate -d '{"model":"qwq-32b"}'

部署完成后,建议用简单提示词测试模型响应:

curl http://localhost:11434/api/generate -d '{
  "model": "qwq-32b",
  "prompt": "用50字介绍OpenClaw"
}'

3. 飞书机器人接入实战

3.1 飞书插件安装与配置

OpenClaw的飞书插件安装需要特别注意版本兼容性。我最初直接安装了最新版导致接口报错,后来锁定1.2.3版本才稳定运行:

openclaw plugins install @m1heng-clawd/feishu@1.2.3

安装完成后,需要在飞书开放平台创建自建应用。这里容易踩的两个坑:

  1. 权限配置:务必勾选"获取用户ID"和"发送消息"权限
  2. IP白名单:需要将部署OpenClaw的服务器的公网IP加入白名单

获取到App ID和App Secret后,修改OpenClaw配置文件:

// ~/.openclaw/openclaw.json
{
  "channels": {
    "feishu": {
      "enabled": true,
      "appId": "cli_xxxxxx",
      "appSecret": "xxxxxxxx",
      "encryptKey": "",
      "verificationToken": "",
      "connectionMode": "websocket"
    }
  }
}

3.2 模型服务对接配置

将ollama-QwQ-32B接入OpenClaw需要修改models配置段。我最初尝试用官方文档的示例直接配置,发现协议不兼容,后来调整了api字段才成功:

{
  "models": {
    "providers": {
      "ollama-local": {
        "baseUrl": "http://localhost:11434",
        "apiKey": "",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwq-32b",
            "name": "QwQ-32B本地版",
            "contextWindow": 32768
          }
        ]
      }
    }
  }
}

配置完成后需要重启网关服务使变更生效:

openclaw gateway restart

4. 对话触发测试与优化

4.1 基础对话测试

首次测试时,我直接@机器人问"你是谁",结果返回了长达500字的自我介绍。后来通过调整模型参数解决了这个问题:

{
  "models": {
    "defaults": {
      "qwq-32b": {
        "maxTokens": 150,
        "temperature": 0.7
      }
    }
  }
}

经过优化的对话效果明显改善:

  • 用户输入:"@助理 本周有哪些待办事项?"
  • 助理响应:"已从日历提取3个待办:1) 周三14点项目评审 2) 周四提交季度报告 3) 周五团队建设。需要我帮您安排提醒吗?"

4.2 文件处理实战

我们团队最常用的功能是合同摘要生成。配置好技能后,只需将合同PDF拖入飞书对话:

clawhub install pdf-extractor

使用示例:

  • 用户:"@助理 请分析这份合同的关键条款"
  • 助理:"已识别合同关键点:1) 服务期12个月 2) 违约金条款见第8条 3) 付款分三期。完整摘要已保存至/Contracts/2024-05-20_summary.md"

5. 生产环境维护建议

经过三个月的实际使用,我总结了几个关键运维经验:

性能监控:建议使用如下命令定期检查资源占用:

watch -n 5 "openclaw status | grep -E 'CPU|MEM'"

日志管理:OpenClaw的日志默认保存在~/.openclaw/logs/,我配置了logrotate实现自动轮转:

# /etc/logrotate.d/openclaw
~/.openclaw/logs/*.log {
    daily
    rotate 7
    compress
    missingok
    notifempty
}

安全加固:除了基础的防火墙设置,我还做了以下防护:

  1. 将OpenClaw服务账户设为非root用户
  2. 配置飞书消息加密验证
  3. 定期轮换App Secret

获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐