2026 年 3 月 11 日 实战经验总结


上一篇讲了 10 个入门级技能,这篇上点难度。这 10 个进阶级技能,能让你真正体会到什么叫"自动化工作流"。都是我实际在用,或者帮朋友配置过的。


一、网页爬虫

真实使用场景

需要定期监控某个网站的数据,比如竞品价格、行业新闻、招聘信息。手动打开网站复制太麻烦。

实际用法

"帮我把这个页面的所有标题爬下来:https://example.com/news"
"监控这个商品的价格,每天下午 5 点告诉我:https://shop.com/product/123"
"抓取这个招聘页面的所有职位信息,存到 Excel 里"

配置方法

搜索"web scraper"或"网页爬虫",安装后配置:

skills:
  web_scraper:
    default_selector:
      title: "h1.title"
      content: ".article-content"
      links: "a.href"
    output_format: json  # 或 csv、excel
    save_to: ./data/scraped/

实际效果

你说"抓取这个页面的所有新闻标题",它会返回:

{
  "url": "https://example.com/news",
  "time": "2026-03-11 10:30:00",
  "data": [
    {"title": "新闻标题 1", "link": "https://..."},
    {"title": "新闻标题 2", "link": "https://..."},
    {"title": "新闻标题 3", "link": "https://..."}
  ]
}

注意事项

  • 有些网站有反爬,可能需要设置 User-Agent
  • 别爬太快,加个延迟,比如delay: 2(秒)
  • 定期爬取的话,可以结合定时任务技能
  • 注意网站的 robots.txt,别乱爬

二、Excel 批量处理

真实使用场景

手头有 100 个 Excel 文件,每个都要做同样的操作:加一列、改个格式、算个数据。手动搞会疯。

实际用法

"把这 100 个 Excel 文件都加一列'合计',计算前面几列的和"
"把所有 Excel 文件的第二列删除"
"合并这 50 个 Excel 文件到一个文件里"
"把这 100 个 Excel 文件都转成 PDF"

配置方法

搜索"excel processor"或"Excel 处理",安装后配置:

skills:
  excel_processor:
    input_dir: ./input/
    output_dir: ./output/
    operations:
      - add_column: "合计"
        formula: "=SUM(A2:D2)"
      - format:
          column: "E"
          format: "0.00"

实际效果

处理 100 个文件,手动搞要一天,它几分钟搞定。

注意事项

  • 先拿几个文件测试,没问题再批量处理
  • 原始文件备份一下,别搞坏了
  • 公式要写对,不然会报错
  • 大文件(超过 10MB)可能会慢

三、定时任务调度

真实使用场景

有些任务需要定期执行:每天早上查天气、每周一生成周报、每月 1 号备份数据。

实际用法

"每天早上 8 点,查询北京天气,发到飞书群里"
"每周一早上 9 点,生成上周的工作报告"
"每月 1 号凌晨 2 点,备份数据库"
"每小时检查一次服务器状态,异常就通知我"

配置方法

搜索"scheduler"或"定时任务",安装后配置:

skills:
  scheduler:
    timezone: "Asia/Shanghai"
    tasks:
      - name: "每日天气"
        cron: "0 8 * * *"  # 每天早上 8 点
        action: "weather_query"
        params:
          city: "北京"
        notify: "feishu_group_1"
      
      - name: "周报生成"
        cron: "0 9 * * 1"  # 每周一早上 9 点
        action: "weekly_report"
      
      - name: "数据库备份"
        cron: "0 2 1 * *"  # 每月 1 号凌晨 2 点
        action: "backup_db"

实际效果

配置好后,完全不用管,到时间自动执行。

注意事项

  • Cron 表达式要写对,网上有转换器
  • 时区要设对,不然会差几个小时
  • 任务执行失败要有通知,不然你不知道没执行
  • 定期看看日志,确认任务正常执行

四、多技能协作工作流

真实使用场景

一个完整的任务,需要多个技能配合。比如写周报:要查数据、要分析、要生成文档、要发送。

实际用法

# 配置一个工作流
name: "周报自动生成"
steps:
  - 从数据库查询本周数据
  - 分析数据,生成图表
  - 用 AI 生成文字总结
  - 合并成 Word 文档
  - 发送到飞书群

配置方法

搜索"workflow"或"工作流",安装后配置:

skills:
  workflow:
    workflows:
      - name: "周报生成"
        trigger: "每周五下午 4 点"
        steps:
          - skill: "db_query"
            params:
              sql: "SELECT * FROM projects WHERE week = current_week"
            output: "data"
          
          - skill: "chart_generator"
            params:
              data: "${data}"
              type: "bar"
            output: "chart"
          
          - skill: "ai_writer"
            params:
              topic: "本周工作总结"
              data: "${data}"
            output: "summary"
          
          - skill: "doc_generator"
            params:
              title: "本周工作报告"
              content: "${summary}"
              chart: "${chart}"
            output: "report.docx"
          
          - skill: "feishu_sender"
            params:
              file: "${report.docx}"
              group: "部门群"

实际效果

到周五下午 4 点,自动:

  1. 查数据库
  2. 生成图表
  3. 写总结
  4. 生成 Word
  5. 发到群里

你什么都不用管。

注意事项

  • 步骤之间用${output}传递数据
  • 每个步骤都要有错误处理
  • 工作流执行失败要有通知
  • 先在测试环境跑一遍,没问题再上生产

五、API 集成

真实使用场景

需要调用第三方 API:查快递、查股票、查汇率、调用 AI 接口。

实际用法

"查一下这个快递单号的进度:SF1234567890"
"今天茅台股票的收盘价是多少?"
"1000 美元换算成人民币是多少?"
"调用这个 AI 接口,处理一下这段文字"

配置方法

搜索"api integration"或"API 集成",安装后配置:

skills:
  api_integration:
    apis:
      - name: "快递查询"
        url: "https://api.kuaidi.com/query"
        method: "GET"
        params:
          number: "${tracking_number}"
        auth:
          type: "api_key"
          key: "${KUAIDI_API_KEY}"
      
      - name: "股票查询"
        url: "https://api.stock.com/price"
        method: "GET"
        params:
          code: "${stock_code}"
      
      - name: "汇率转换"
        url: "https://api.exchangerate.com/convert"
        method: "GET"
        params:
          from: "USD"
          to: "CNY"
          amount: "${amount}"

实际效果

你说"查一下快递 SF1234567890",它会调用 API,返回:

📦 快递进度查询

单号:SF1234567890
状态:已签收
进度:
2026-03-10 15:30 已签收,签收人:本人
2026-03-10 09:00 派送中
2026-03-09 18:00 已到达北京集散中心

注意事项

  • API Key 用 SecretRef 存,别明文
  • 有些 API 有调用限制,别超了
  • 错误处理要做好,API 挂了要有提示
  • 可以缓存结果,减少调用次数

六、文档自动摘要

真实使用场景

几十页的 PDF 报告、几万字的文档,没时间看,想快速知道讲了什么。

实际用法

"帮我总结一下这个 PDF 文件:report.pdf"
"这个 Word 文档的核心观点是什么?"
"把这篇 1 万字的文章,缩写成 500 字"

配置方法

搜索"document summary"或"文档摘要",安装后配置:

skills:
  doc_summary:
    supported_formats: [pdf, docx, txt, md]
    summary_length: 500  # 摘要字数
    language: "zh"  # 中文
    model: "glm-4"  # 用哪个 AI 模型

实际效果

上传一个 50 页的 PDF,它返回:

📄 文档摘要

文件:2026 年行业分析报告.pdf
页数:52 页
字数:约 3.5 万字

核心观点:
1. 行业整体增长 15%,主要驱动力是...
2. 头部企业市场份额进一步提升,CR5 达到...
3. 未来 3 年,预计...

关键数据:
- 市场规模:1.2 万亿
- 增长率:15%
- 头部企业:A 公司(25%)、B 公司(20%)...

建议关注:
- 细分领域 X
- 技术 Y
- 政策 Z

注意事项

  • 太长的文档(超过 10 万字)可能会超时
  • 扫描件 PDF(图片格式)需要先 OCR
  • 摘要长度可以调,别太短,不然没信息量
  • 专业文档(医学、法律)摘要可能不准

七、图片处理

真实使用场景

批量处理图片:改尺寸、加水印、转格式、压缩。

实际用法

"把这 100 张图片都压缩到 500KB 以内"
"给这些图片都加上水印"
"把所有 PNG 转成 JPG"
"把这 50 张图片都缩放到 800x600"

配置方法

搜索"image processor"或"图片处理",安装后配置:

skills:
  image_processor:
    input_dir: ./input/
    output_dir: ./output/
    operations:
      - resize:
          width: 800
          height: 600
      - watermark:
          text: "© 2026 MyCompany"
          position: "bottom-right"
          opacity: 0.5
      - compress:
          quality: 80
          max_size: 500KB  # 超过会再压缩

实际效果

处理 100 张图片,手动搞要半天,它几分钟搞定。

注意事项

  • 先拿几张测试,看看效果
  • 水印别太明显,不然影响图片
  • 压缩会损失质量,别压太狠
  • 保留原始文件备份

八、数据库操作

真实使用场景

需要查数据库、导数据、备份数据,但不想打开数据库客户端。

实际用法

"查一下上周新增的用户有多少"
"把上个月的销售数据导出来,存成 Excel"
"备份一下数据库"
"查一下订单表里金额最大的 10 条记录"

配置方法

搜索"database"或"数据库",安装后配置:

skills:
  database:
    type: "mysql"  # 或 postgresql、sqlite
    host: "localhost"
    port: 3306
    database: "mydb"
    user: "${DB_USER}"
    password: "${DB_PASSWORD}"
    readonly: true  # 只读模式,安全

实际效果

你说"查一下上周新增的用户",它返回:

📊 查询结果

SQL: SELECT COUNT(*) FROM users WHERE created_at >= '2026-03-04'

结果:1,234 人

详细数据:
- 周一:156 人
- 周二:189 人
- 周三:201 人
- 周四:178 人
- 周五:234 人
- 周六:145 人
- 周日:131 人

注意事项

  • 建议用只读账号,别给写权限
  • 密码用 SecretRef 存
  • 复杂查询可能会慢,加个超时限制
  • 定期备份,别把数据搞丢了

九、文件同步备份

真实使用场景

重要文件需要备份到另一个地方,或者同步到多个设备。

实际用法

"每天晚上 10 点,把桌面文件备份到 D 盘"
"把这个文件夹同步到百度网盘"
"实时监控这个目录,有变化就备份"

配置方法

搜索"file sync"或"文件同步",安装后配置:

skills:
  file_sync:
    sync_tasks:
      - name: "桌面备份"
        source: ~/Desktop/
        target: D:/Backup/Desktop/
        schedule: "0 22 * * *"  # 每天晚上 10 点
        mode: "incremental"  # 增量备份
      
      - name: "重要文档同步"
        source: ~/Documents/important/
        target: baidu_cloud:/important/
        mode: "realtime"  # 实时同步

实际效果

配置好后,自动备份,文件丢了也不慌。

注意事项

  • 第一次全量备份可能会慢
  • 增量备份只备份变化的,快
  • 实时同步要监控系统资源占用
  • 定期验证备份文件,别备份了个坏的

十、消息推送

真实使用场景

有些信息需要推送到多个渠道:飞书、钉钉、微信、邮件、短信。

实际用法

"服务器挂了,推送到运维群"
"订单超过 10 万,推送到管理群"
"每天下午 6 点,把当日数据推送到老板微信"

配置方法

搜索"message push"或"消息推送",安装后配置:

skills:
  message_push:
    channels:
      - name: "feishu_ops"
        type: "feishu"
        webhook: "${FEISHU_OPS_WEBHOOK}"
      
      - name: "dingtalk_mgmt"
        type: "dingtalk"
        webhook: "${DINGTALK_MGMT_WEBHOOK}"
      
      - name: "wechat_boss"
        type: "wechat"
        user: "boss_wechat_id"
    
    rules:
      - trigger: "server_down"
        channels: ["feishu_ops"]
        template: "🚨 服务器告警:{server_name} 宕机"
      
      - trigger: "order_milestone"
        condition: "order_count > 100000"
        channels: ["dingtalk_mgmt"]
        template: "🎉 订单突破 {order_count} 单"

实际效果

触发条件后,自动推送到配置的渠道。

注意事项

  • Webhook 地址用 SecretRef 存
  • 别推送太频繁,会被人拉黑
  • 重要信息可以多渠道推送,确保收到
  • 推送失败要有重试机制

总结

这 10 个进阶级技能,能让你真正体会到自动化的威力。我的建议是:

  1. 从简单的开始,比如定时任务、API 集成
  2. 慢慢尝试工作流,把多个技能串起来
  3. 配置好后,定期看看日志,确认正常执行
  4. 别一开始就搞太复杂的,容易放弃
Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐