舆情岗工作的同志们,每天除了要面对单位采购的专业舆情管理系统之外,主要工作还会集中于手动浏览各类新媒体 APP,「刷」出自己关注的舆情面信息。

如今,#公务员养上政务龙虾了# 等话题登顶微博多榜热搜第一,那么站在实践角度,我们自己能通过OpenClaw配置一个岗位可用的个性化舆情管理系统,以更符合单位实际需求的方式高效完成抓取热点吗?

有的同志,有的。

实际上多数舆情需求,在 OpenClaw 生态中相对稳妥的组合都是聚合搜索(union-search-skill)+ 浏览器自动化抓取(playwright-scraper)+ 平台专用适配,再配合定时与总结技能形成工作闭环。我们就“复旦大学”为例,以下是几个高质量 Skill 清单、能力简介及可落地的「日报」工作流:

核心 Skill 清单(按平台分级)

平台

首选 Skill

备选 Skill

核心能力

登录要求

适合场景

全平台聚合

union-search-skill

multi-search-engine

20 + 平台统一搜索(含微博、知乎、B 站、小红书、公众号)

无需

快速拓面、初步筛选舆情

通用精准抓取

playwright-scraper

agent-browser

动态渲染、API 拦截、结构化提取

按需(Cookie / 插件接力)

深度抓取、落地页解析、去重

小红书

xiaohongshu-cn

RedNote(hi-yu/xhs)

笔记搜索、博主主页、关键词聚合

需(扫码 / Cookie)

种草舆情、学生 / 校友分享

微博

playwright-scraper

无专用优选

热搜、话题、超话、实时流、评论区

按需(敏感内容需登录)

突发舆情、官方动态、热搜监测

公众号

wechat-article-viewer

playwright-scraper

文章标题 / 作者 / 正文提取、转 Markdown

需(微信网页版扫码)

官方发布、院系动态、深度解读

知乎

playwright-scraper

union-search-skill

问答、专栏、话题、高赞回答

无需(部分内容需登录)

深度讨论、学术观点、用户态度

B 站

playwright-scraper

union-search-skill

视频标题、UP 主、弹幕、评论、播放量

无需(部分评论需登录)

校园活动、讲座录像、弹幕舆情

可额外补充的 Skill

  1. cron:定时执行(如每日 9:00 抓取、10:00 生成日报)

  2. summarize:多文档摘要、情感倾向、关键词提取

  3. skill-vetter:安全扫描,防止恶意 Skill 泄露数据

  4. OpenClaw Browser Relay:复用当前浏览器登录态,解决小红书 / 公众号 / 微博的登录痛点

质量与合规说明

  • 可靠性优先级:playwright-scraper(动态渲染 + API 拦截)> 平台专用 Skill > 聚合搜索。聚合搜索适合拓面,精准抓取必须用 playwright-scraper 兜底。

  • 合规风险:

    • 仅用于非商业的政务舆情监测,遵守各平台 robots 协议与用户协议。

    • 避免高频请求、分布式抓取,降低封禁风险。

    • 公众号 / 小红书等需登录的内容,仅限抓取公开可见的公开内容。

“复旦大学” 舆情日报工作流

前置准备

# 安装核心 Skill(需先安装 Node.js ≥v18、clawhub)npm i -g clawhubclawhub install skill-vetter playwright-scraper union-search-skill cron summarizeclawhub install wechat-article-viewer  # 公众号专用clawhub install xiaohongshu-cn         # 小红书专用


步骤 1:定时聚合拓面(每日 8:30)

指令:

用 union-search-skill 搜索近 24 小时 “复旦大学” 相关内容,覆盖微博热搜 / 话题、知乎问答 / 专栏、B 站视频、小红书笔记、微信公众号文章,各平台取前 20 条,按时间排序,输出包含标题、链接、来源、发布时间、摘要的 JSON 清单,保存为 fudan-raw-2026-03-10.json。

步骤 2:精准抓取与结构化(每日 8:45)

指令:

用 playwright-scraper 读取 fudan-raw-2026-03-10.json,对每条链接进行深度抓取:公众号:调用 wechat-article-viewer 提取正文、作者、发布时间、阅读量 / 在看数;微博:提取正文、转发 / 评论 / 点赞数、评论区前 10 条高赞评论;知乎:提取问题、回答、赞同数、评论区高赞观点;B 站:提取视频标题、UP 主、播放量、弹幕关键词、评论区高赞;小红书:提取笔记正文、图片数、点赞 / 收藏 / 评论数、评论区关键词;去重(按链接 + 标题),过滤广告 / 无关内容,保存为 fudan-structured-2026-03-10.json。

步骤 3:舆情分析与日报生成(每日 9:15)

指令:

用 summarize 分析 fudan-structured-2026-03-10.json,生成 “复旦大学舆情日报 - 2026-03-10”,包含:核心舆情概览(新增内容量、平台分布、情感倾向分布);热点 TOP5(按热度排序,含标题、来源、核心观点、情感倾向);官方动态(公众号 / 微博官方账号发布内容);风险提示(负面舆情、谣言、敏感话题);数据看板(各平台互动量对比、关键词云);输出格式:Markdown + 表格,保存为 fudan-daily-2026-03-10.md。

步骤 4:定时自动化(持久化)

用 cron 设置每日 8:30 执行步骤 1,8:45 执行步骤 2,9:15 执行步骤 3,执行完成后用 sync-tools 将日报同步到飞书 / 企业微信(可选)。

常见问题与优化

  1. 登录态失效:使用 OpenClaw Browser Relay 插件,复用当前 Chrome 登录态,无需反复扫码。

  2. 抓取失败: playwright-scraper 增加 “等待元素可见”“重试 3 次”“请求间隔 2-5 秒”,避免被反爬。

  3. 舆情遗漏:补充 “复旦大学 寒假”“复旦 计算机”“复旦招生” 等细分关键词,覆盖生活、科研、招生等场景。

  4. 日报可读性:用 summarize 生成 “一句话摘要”,对负面舆情标注 “风险等级”(低 / 中 / 高),附链接便于核查。

另外,运行后若提示小红书 / 公众号 / 微博需要登录,那么可以打开 Chrome 浏览器,安装「OpenClaw Browser Relay」插件;手动登录各平台账号;或在 OpenClaw 控制台启用「复用浏览器登录态」,无需反复扫码。

当然,符合条件的同志也可以考虑通过将 OpenClaw 接入飞书、企业微信等方式,以返回更高阶的智能表格来进行舆情汇总。此外,多个行业头部互联网企业也正在加速各类“一键部署”、“开箱即用”的小龙虾应用,需求不算强烈的同志们也可以适当官网避免焦虑,等待市场本身筛选出最佳产品。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐