实用技能大全(二):10 个进阶级技能,让 OpenClaw 真正自动化
本文介绍了5种自动化工作流进阶技能:1)网页爬虫(监控网站数据);2)Excel批量处理(自动操作多个文件);3)定时任务调度(定期执行特定任务);4)多技能协作工作流(整合多个任务步骤);5)API集成(调用第三方接口)。每个技能都包含真实使用场景、配置方法和注意事项,能显著提升工作效率。这些技能可单独使用或组合应用,实现复杂的自动化流程。
2026 年 3 月 11 日 实战经验总结
上一篇讲了 10 个入门级技能,这篇上点难度。这 10 个进阶级技能,能让你真正体会到什么叫"自动化工作流"。都是我实际在用,或者帮朋友配置过的。
一、网页爬虫
真实使用场景:
需要定期监控某个网站的数据,比如竞品价格、行业新闻、招聘信息。手动打开网站复制太麻烦。
实际用法:
"帮我把这个页面的所有标题爬下来:https://example.com/news"
"监控这个商品的价格,每天下午 5 点告诉我:https://shop.com/product/123"
"抓取这个招聘页面的所有职位信息,存到 Excel 里"
配置方法:
搜索"web scraper"或"网页爬虫",安装后配置:
skills:
web_scraper:
default_selector:
title: "h1.title"
content: ".article-content"
links: "a.href"
output_format: json # 或 csv、excel
save_to: ./data/scraped/
实际效果:
你说"抓取这个页面的所有新闻标题",它会返回:
{
"url": "https://example.com/news",
"time": "2026-03-11 10:30:00",
"data": [
{"title": "新闻标题 1", "link": "https://..."},
{"title": "新闻标题 2", "link": "https://..."},
{"title": "新闻标题 3", "link": "https://..."}
]
}
注意事项:
- 有些网站有反爬,可能需要设置 User-Agent
- 别爬太快,加个延迟,比如
delay: 2(秒) - 定期爬取的话,可以结合定时任务技能
- 注意网站的 robots.txt,别乱爬
二、Excel 批量处理
真实使用场景:
手头有 100 个 Excel 文件,每个都要做同样的操作:加一列、改个格式、算个数据。手动搞会疯。
实际用法:
"把这 100 个 Excel 文件都加一列'合计',计算前面几列的和"
"把所有 Excel 文件的第二列删除"
"合并这 50 个 Excel 文件到一个文件里"
"把这 100 个 Excel 文件都转成 PDF"
配置方法:
搜索"excel processor"或"Excel 处理",安装后配置:
skills:
excel_processor:
input_dir: ./input/
output_dir: ./output/
operations:
- add_column: "合计"
formula: "=SUM(A2:D2)"
- format:
column: "E"
format: "0.00"
实际效果:
处理 100 个文件,手动搞要一天,它几分钟搞定。
注意事项:
- 先拿几个文件测试,没问题再批量处理
- 原始文件备份一下,别搞坏了
- 公式要写对,不然会报错
- 大文件(超过 10MB)可能会慢
三、定时任务调度
真实使用场景:
有些任务需要定期执行:每天早上查天气、每周一生成周报、每月 1 号备份数据。
实际用法:
"每天早上 8 点,查询北京天气,发到飞书群里"
"每周一早上 9 点,生成上周的工作报告"
"每月 1 号凌晨 2 点,备份数据库"
"每小时检查一次服务器状态,异常就通知我"
配置方法:
搜索"scheduler"或"定时任务",安装后配置:
skills:
scheduler:
timezone: "Asia/Shanghai"
tasks:
- name: "每日天气"
cron: "0 8 * * *" # 每天早上 8 点
action: "weather_query"
params:
city: "北京"
notify: "feishu_group_1"
- name: "周报生成"
cron: "0 9 * * 1" # 每周一早上 9 点
action: "weekly_report"
- name: "数据库备份"
cron: "0 2 1 * *" # 每月 1 号凌晨 2 点
action: "backup_db"
实际效果:
配置好后,完全不用管,到时间自动执行。
注意事项:
- Cron 表达式要写对,网上有转换器
- 时区要设对,不然会差几个小时
- 任务执行失败要有通知,不然你不知道没执行
- 定期看看日志,确认任务正常执行
四、多技能协作工作流
真实使用场景:
一个完整的任务,需要多个技能配合。比如写周报:要查数据、要分析、要生成文档、要发送。
实际用法:
# 配置一个工作流
name: "周报自动生成"
steps:
- 从数据库查询本周数据
- 分析数据,生成图表
- 用 AI 生成文字总结
- 合并成 Word 文档
- 发送到飞书群
配置方法:
搜索"workflow"或"工作流",安装后配置:
skills:
workflow:
workflows:
- name: "周报生成"
trigger: "每周五下午 4 点"
steps:
- skill: "db_query"
params:
sql: "SELECT * FROM projects WHERE week = current_week"
output: "data"
- skill: "chart_generator"
params:
data: "${data}"
type: "bar"
output: "chart"
- skill: "ai_writer"
params:
topic: "本周工作总结"
data: "${data}"
output: "summary"
- skill: "doc_generator"
params:
title: "本周工作报告"
content: "${summary}"
chart: "${chart}"
output: "report.docx"
- skill: "feishu_sender"
params:
file: "${report.docx}"
group: "部门群"
实际效果:
到周五下午 4 点,自动:
- 查数据库
- 生成图表
- 写总结
- 生成 Word
- 发到群里
你什么都不用管。
注意事项:
- 步骤之间用
${output}传递数据 - 每个步骤都要有错误处理
- 工作流执行失败要有通知
- 先在测试环境跑一遍,没问题再上生产
五、API 集成
真实使用场景:
需要调用第三方 API:查快递、查股票、查汇率、调用 AI 接口。
实际用法:
"查一下这个快递单号的进度:SF1234567890"
"今天茅台股票的收盘价是多少?"
"1000 美元换算成人民币是多少?"
"调用这个 AI 接口,处理一下这段文字"
配置方法:
搜索"api integration"或"API 集成",安装后配置:
skills:
api_integration:
apis:
- name: "快递查询"
url: "https://api.kuaidi.com/query"
method: "GET"
params:
number: "${tracking_number}"
auth:
type: "api_key"
key: "${KUAIDI_API_KEY}"
- name: "股票查询"
url: "https://api.stock.com/price"
method: "GET"
params:
code: "${stock_code}"
- name: "汇率转换"
url: "https://api.exchangerate.com/convert"
method: "GET"
params:
from: "USD"
to: "CNY"
amount: "${amount}"
实际效果:
你说"查一下快递 SF1234567890",它会调用 API,返回:
📦 快递进度查询
单号:SF1234567890
状态:已签收
进度:
2026-03-10 15:30 已签收,签收人:本人
2026-03-10 09:00 派送中
2026-03-09 18:00 已到达北京集散中心
注意事项:
- API Key 用 SecretRef 存,别明文
- 有些 API 有调用限制,别超了
- 错误处理要做好,API 挂了要有提示
- 可以缓存结果,减少调用次数
六、文档自动摘要
真实使用场景:
几十页的 PDF 报告、几万字的文档,没时间看,想快速知道讲了什么。
实际用法:
"帮我总结一下这个 PDF 文件:report.pdf"
"这个 Word 文档的核心观点是什么?"
"把这篇 1 万字的文章,缩写成 500 字"
配置方法:
搜索"document summary"或"文档摘要",安装后配置:
skills:
doc_summary:
supported_formats: [pdf, docx, txt, md]
summary_length: 500 # 摘要字数
language: "zh" # 中文
model: "glm-4" # 用哪个 AI 模型
实际效果:
上传一个 50 页的 PDF,它返回:
📄 文档摘要
文件:2026 年行业分析报告.pdf
页数:52 页
字数:约 3.5 万字
核心观点:
1. 行业整体增长 15%,主要驱动力是...
2. 头部企业市场份额进一步提升,CR5 达到...
3. 未来 3 年,预计...
关键数据:
- 市场规模:1.2 万亿
- 增长率:15%
- 头部企业:A 公司(25%)、B 公司(20%)...
建议关注:
- 细分领域 X
- 技术 Y
- 政策 Z
注意事项:
- 太长的文档(超过 10 万字)可能会超时
- 扫描件 PDF(图片格式)需要先 OCR
- 摘要长度可以调,别太短,不然没信息量
- 专业文档(医学、法律)摘要可能不准
七、图片处理
真实使用场景:
批量处理图片:改尺寸、加水印、转格式、压缩。
实际用法:
"把这 100 张图片都压缩到 500KB 以内"
"给这些图片都加上水印"
"把所有 PNG 转成 JPG"
"把这 50 张图片都缩放到 800x600"
配置方法:
搜索"image processor"或"图片处理",安装后配置:
skills:
image_processor:
input_dir: ./input/
output_dir: ./output/
operations:
- resize:
width: 800
height: 600
- watermark:
text: "© 2026 MyCompany"
position: "bottom-right"
opacity: 0.5
- compress:
quality: 80
max_size: 500KB # 超过会再压缩
实际效果:
处理 100 张图片,手动搞要半天,它几分钟搞定。
注意事项:
- 先拿几张测试,看看效果
- 水印别太明显,不然影响图片
- 压缩会损失质量,别压太狠
- 保留原始文件备份
八、数据库操作
真实使用场景:
需要查数据库、导数据、备份数据,但不想打开数据库客户端。
实际用法:
"查一下上周新增的用户有多少"
"把上个月的销售数据导出来,存成 Excel"
"备份一下数据库"
"查一下订单表里金额最大的 10 条记录"
配置方法:
搜索"database"或"数据库",安装后配置:
skills:
database:
type: "mysql" # 或 postgresql、sqlite
host: "localhost"
port: 3306
database: "mydb"
user: "${DB_USER}"
password: "${DB_PASSWORD}"
readonly: true # 只读模式,安全
实际效果:
你说"查一下上周新增的用户",它返回:
📊 查询结果
SQL: SELECT COUNT(*) FROM users WHERE created_at >= '2026-03-04'
结果:1,234 人
详细数据:
- 周一:156 人
- 周二:189 人
- 周三:201 人
- 周四:178 人
- 周五:234 人
- 周六:145 人
- 周日:131 人
注意事项:
- 建议用只读账号,别给写权限
- 密码用 SecretRef 存
- 复杂查询可能会慢,加个超时限制
- 定期备份,别把数据搞丢了
九、文件同步备份
真实使用场景:
重要文件需要备份到另一个地方,或者同步到多个设备。
实际用法:
"每天晚上 10 点,把桌面文件备份到 D 盘"
"把这个文件夹同步到百度网盘"
"实时监控这个目录,有变化就备份"
配置方法:
搜索"file sync"或"文件同步",安装后配置:
skills:
file_sync:
sync_tasks:
- name: "桌面备份"
source: ~/Desktop/
target: D:/Backup/Desktop/
schedule: "0 22 * * *" # 每天晚上 10 点
mode: "incremental" # 增量备份
- name: "重要文档同步"
source: ~/Documents/important/
target: baidu_cloud:/important/
mode: "realtime" # 实时同步
实际效果:
配置好后,自动备份,文件丢了也不慌。
注意事项:
- 第一次全量备份可能会慢
- 增量备份只备份变化的,快
- 实时同步要监控系统资源占用
- 定期验证备份文件,别备份了个坏的
十、消息推送
真实使用场景:
有些信息需要推送到多个渠道:飞书、钉钉、微信、邮件、短信。
实际用法:
"服务器挂了,推送到运维群"
"订单超过 10 万,推送到管理群"
"每天下午 6 点,把当日数据推送到老板微信"
配置方法:
搜索"message push"或"消息推送",安装后配置:
skills:
message_push:
channels:
- name: "feishu_ops"
type: "feishu"
webhook: "${FEISHU_OPS_WEBHOOK}"
- name: "dingtalk_mgmt"
type: "dingtalk"
webhook: "${DINGTALK_MGMT_WEBHOOK}"
- name: "wechat_boss"
type: "wechat"
user: "boss_wechat_id"
rules:
- trigger: "server_down"
channels: ["feishu_ops"]
template: "🚨 服务器告警:{server_name} 宕机"
- trigger: "order_milestone"
condition: "order_count > 100000"
channels: ["dingtalk_mgmt"]
template: "🎉 订单突破 {order_count} 单"
实际效果:
触发条件后,自动推送到配置的渠道。
注意事项:
- Webhook 地址用 SecretRef 存
- 别推送太频繁,会被人拉黑
- 重要信息可以多渠道推送,确保收到
- 推送失败要有重试机制
总结
这 10 个进阶级技能,能让你真正体会到自动化的威力。我的建议是:
- 从简单的开始,比如定时任务、API 集成
- 慢慢尝试工作流,把多个技能串起来
- 配置好后,定期看看日志,确认正常执行
- 别一开始就搞太复杂的,容易放弃
更多推荐



所有评论(0)