基于OpenClaw小龙虾构建一个简单的舆情管理系统
质量与合规说明可靠性优先级:playwright-scraper(动态渲染 + API 拦截)> 平台专用 Skill > 聚合搜索。聚合搜索适合拓面,精准抓取必须用 playwright-scraper 兜底。仅用于非商业的政务舆情监测,遵守各平台 robots 协议与用户协议。避免高频请求、分布式抓取,降低封禁风险。公众号 / 小红书等需登录的内容,仅限抓取公开可见的公开内容。“复旦大学” 舆
舆情岗工作的同志们,每天除了要面对单位采购的专业舆情管理系统之外,主要工作还会集中于手动浏览各类新媒体 APP,「刷」出自己关注的舆情面信息。
如今,#公务员养上政务龙虾了# 等话题登顶微博多榜热搜第一,那么站在实践角度,我们自己能通过OpenClaw配置一个岗位可用的个性化舆情管理系统,以更符合单位实际需求的方式高效完成抓取热点吗?
有的同志,有的。
实际上多数舆情需求,在 OpenClaw 生态中相对稳妥的组合都是聚合搜索(union-search-skill)+ 浏览器自动化抓取(playwright-scraper)+ 平台专用适配,再配合定时与总结技能形成工作闭环。我们就“复旦大学”为例,以下是几个高质量 Skill 清单、能力简介及可落地的「日报」工作流:
核心 Skill 清单(按平台分级)
|
平台 |
首选 Skill |
备选 Skill |
核心能力 |
登录要求 |
适合场景 |
|---|---|---|---|---|---|
|
全平台聚合 |
union-search-skill |
multi-search-engine |
20 + 平台统一搜索(含微博、知乎、B 站、小红书、公众号) |
无需 |
快速拓面、初步筛选舆情 |
|
通用精准抓取 |
playwright-scraper |
agent-browser |
动态渲染、API 拦截、结构化提取 |
按需(Cookie / 插件接力) |
深度抓取、落地页解析、去重 |
|
小红书 |
xiaohongshu-cn |
RedNote(hi-yu/xhs) |
笔记搜索、博主主页、关键词聚合 |
需(扫码 / Cookie) |
种草舆情、学生 / 校友分享 |
|
微博 |
playwright-scraper |
无专用优选 |
热搜、话题、超话、实时流、评论区 |
按需(敏感内容需登录) |
突发舆情、官方动态、热搜监测 |
|
公众号 |
wechat-article-viewer |
playwright-scraper |
文章标题 / 作者 / 正文提取、转 Markdown |
需(微信网页版扫码) |
官方发布、院系动态、深度解读 |
|
知乎 |
playwright-scraper |
union-search-skill |
问答、专栏、话题、高赞回答 |
无需(部分内容需登录) |
深度讨论、学术观点、用户态度 |
|
B 站 |
playwright-scraper |
union-search-skill |
视频标题、UP 主、弹幕、评论、播放量 |
无需(部分评论需登录) |
校园活动、讲座录像、弹幕舆情 |
可额外补充的 Skill
-
cron:定时执行(如每日 9:00 抓取、10:00 生成日报)
-
summarize:多文档摘要、情感倾向、关键词提取
-
skill-vetter:安全扫描,防止恶意 Skill 泄露数据
-
OpenClaw Browser Relay:复用当前浏览器登录态,解决小红书 / 公众号 / 微博的登录痛点
质量与合规说明
-
可靠性优先级:playwright-scraper(动态渲染 + API 拦截)> 平台专用 Skill > 聚合搜索。聚合搜索适合拓面,精准抓取必须用 playwright-scraper 兜底。
-
合规风险:
-
-
仅用于非商业的政务舆情监测,遵守各平台 robots 协议与用户协议。
-
避免高频请求、分布式抓取,降低封禁风险。
-
公众号 / 小红书等需登录的内容,仅限抓取公开可见的公开内容。
-
“复旦大学” 舆情日报工作流
前置准备
# 安装核心 Skill(需先安装 Node.js ≥v18、clawhub)npm i -g clawhubclawhub install skill-vetter playwright-scraper union-search-skill cron summarizeclawhub install wechat-article-viewer # 公众号专用clawhub install xiaohongshu-cn # 小红书专用
步骤 1:定时聚合拓面(每日 8:30)
指令:
用 union-search-skill 搜索近 24 小时 “复旦大学” 相关内容,覆盖微博热搜 / 话题、知乎问答 / 专栏、B 站视频、小红书笔记、微信公众号文章,各平台取前 20 条,按时间排序,输出包含标题、链接、来源、发布时间、摘要的 JSON 清单,保存为 fudan-raw-2026-03-10.json。
步骤 2:精准抓取与结构化(每日 8:45)
指令:
用 playwright-scraper 读取 fudan-raw-2026-03-10.json,对每条链接进行深度抓取:公众号:调用 wechat-article-viewer 提取正文、作者、发布时间、阅读量 / 在看数;微博:提取正文、转发 / 评论 / 点赞数、评论区前 10 条高赞评论;知乎:提取问题、回答、赞同数、评论区高赞观点;B 站:提取视频标题、UP 主、播放量、弹幕关键词、评论区高赞;小红书:提取笔记正文、图片数、点赞 / 收藏 / 评论数、评论区关键词;去重(按链接 + 标题),过滤广告 / 无关内容,保存为 fudan-structured-2026-03-10.json。
步骤 3:舆情分析与日报生成(每日 9:15)
指令:
用 summarize 分析 fudan-structured-2026-03-10.json,生成 “复旦大学舆情日报 - 2026-03-10”,包含:核心舆情概览(新增内容量、平台分布、情感倾向分布);热点 TOP5(按热度排序,含标题、来源、核心观点、情感倾向);官方动态(公众号 / 微博官方账号发布内容);风险提示(负面舆情、谣言、敏感话题);数据看板(各平台互动量对比、关键词云);输出格式:Markdown + 表格,保存为 fudan-daily-2026-03-10.md。
步骤 4:定时自动化(持久化)
用 cron 设置每日 8:30 执行步骤 1,8:45 执行步骤 2,9:15 执行步骤 3,执行完成后用 sync-tools 将日报同步到飞书 / 企业微信(可选)。
常见问题与优化
-
登录态失效:使用 OpenClaw Browser Relay 插件,复用当前 Chrome 登录态,无需反复扫码。
-
抓取失败: playwright-scraper 增加 “等待元素可见”“重试 3 次”“请求间隔 2-5 秒”,避免被反爬。
-
舆情遗漏:补充 “复旦大学 寒假”“复旦 计算机”“复旦招生” 等细分关键词,覆盖生活、科研、招生等场景。
-
日报可读性:用 summarize 生成 “一句话摘要”,对负面舆情标注 “风险等级”(低 / 中 / 高),附链接便于核查。
另外,运行后若提示小红书 / 公众号 / 微博需要登录,那么可以打开 Chrome 浏览器,安装「OpenClaw Browser Relay」插件;手动登录各平台账号;或在 OpenClaw 控制台启用「复用浏览器登录态」,无需反复扫码。
当然,符合条件的同志也可以考虑通过将 OpenClaw 接入飞书、企业微信等方式,以返回更高阶的智能表格来进行舆情汇总。此外,多个行业头部互联网企业也正在加速各类“一键部署”、“开箱即用”的小龙虾应用,需求不算强烈的同志们也可以适当官网避免焦虑,等待市场本身筛选出最佳产品。
更多推荐




所有评论(0)