从"养虾"狂欢到官方警示,智能体安全治理进入新阶段

整理自2026年3月博鳌亚洲论坛公开报道


引言

2026年3月25日,博鳌亚洲论坛"AI+"数智赋能产业升级分会现场,中国信息通信研究院院长余晓晖的一番话,让台下不少"养虾"玩家坐立不安:

"大家用'龙虾'时很少考虑开放权限后是否导致无法控制的风险。2月我们就监测到了风险,但没有对外发布,也没料到社会反响如此热烈。"

这是官方机构首次在顶级论坛上,对 OpenClaw("龙虾")的安全风险做出公开表态。

与此同时,中国工程院院士张亚勤在同一会场上正式提出:2026年是智能体AI元年

一个事实正在变得清晰:智能体从"极客玩具"走向"全民应用"的过程中,风险和机遇正在同时爆发。


一、博鳌定调:2026是"智能体AI元年"

1.1 张亚勤:AI的三大趋势

中国工程院院士、清华大学智能产业研究院院长张亚勤在论坛上做出了最新判断:

"今年AI出现了三个大趋势。一是从生成式AI走向智能体AI,面向消费者的智能体出现爆发,今年是智能体AI元年。二是智能正从信息智能走向物理智能和生物智能,机器人、无人驾驶汽车都属于物理AI。三是从AI走向'AI+',也就是走进每行每业。"

维度 过去 现在
技术范式 生成式AI(对话、生成内容) 智能体AI(自主执行任务)
应用边界 信息世界(文本、图像) 物理世界(机器人、无人驾驶)
产业形态 AI技术本身 AI赋能千行百业

张亚勤特别指出,几年前博鳌论坛上讨论的热门话题还是"互联网+",但现在已进入"AI+"时代,AI已无处不在。

1.2 中国信通院:中国AI发展的独特活力

余晓晖在论坛上感慨:

"中国对数字技术包括AI技术的接受度很高,企业和普通消费者也对新技术充满好奇并愿意尝试,这给中国数字经济和AI发展带来了非常强的活力。"

这种"全民拥抱新技术"的氛围,正是OpenClaw在国内迅速走红的土壤。但余晓晖也警示:

"对新技术也要创建更多的认知和敬畏感,要有基本的安全考虑。"


二、风险浮出水面:OpenClaw的"黑暗面"

2.1 官方首次披露:2月已监测到风险

余晓晖在接受澎湃新闻采访时透露:

"我们一直对相关安全风险保持监测,事实上早在2月份就已察觉相关情况,只是当时并未对外公布,也未预料到社会反响会如此热烈。直到相关应用在全国范围内普及,我们才正式对外发布相关信息。"

这意味着,在OpenClaw真正走红之前,安全风险就已经被监管部门注意到了。

余晓晖进一步反思:后续工作中,一旦预判到这类技术具备价值同时又存在潜在风险时,是否应当更早向社会披露提示。

2.2 360独家发现:高危漏洞获官方确认

3月22日,360安全云团队收到OpenClaw创始人Peter的官方邮件,确认了由360团队独家发现的WebSocket无认证升级漏洞

漏洞类型 风险等级 影响
WebSocket无认证升级 高危 可绕过权限认证,获取网关控制权
CVE-2026-26972(路径遍历) 中危 可将下载文件写入预期目录之外

攻击者可利用该漏洞通过WebSocket静默绕过权限认证,获取智能体网关控制权,进而可能导致目标系统资源耗尽或全面崩溃。

该漏洞已被报送至国家信息安全漏洞共享平台(CNVD)。

2.3 真实事故:从股票清空到邮件删除

余晓晖提到的"社会反响热烈",背后是真实发生的安全事件:

  • 百度副总裁阮瑜透露:社交媒体已出现因用户授权过大引发股票清仓等问题

  • Meta安全专家曾遭遇AI无视"停止"指令、删除数百封邮件的案例

这些事故揭示了一个事实:当Agent拥有最高权限时,风险不再是理论,而是每天在发生。

阮瑜指出,个人对安全的敏感度差异较大,建议:

  • 资产敏感人群:使用单独设备操作龙虾

  • 小范围使用:严控权限


三、风险全景:三类风险正在成为共识

3.1 萨姆·道斯:国际AI安全报告的三类风险

英国牛津大学马丁学院人工智能治理倡议高级顾问萨姆·道斯介绍了国际人工智能安全报告提出的三类风险框架:

风险类别 说明 与OpenClaw的关联
恶意使用风险 犯罪分子利用AI进行网络攻击 API密钥被盗、3天花1.2万元
事故风险 AI因过于聪明、偏离人类价值而引发事故 指令误判、清空股票
系统性风险 劳动力替代、能源结构重大变化 行业重构、就业冲击

道斯特别提到:

"'龙虾'等智能体如果开始相互互动会导致什么后果?

这是一个值得深思的问题。

3.2 张亚勤:智能体的责任边界

张亚勤对智能体的安全提出了三个明确建议

  1. AI内容必须标识

    无论是数字人还是AI生成的内容,都应当进行明确标识。中国政府已于去年9月就此完成立法,成为全球首个立法要求AI生成内容必须标注来源的主要国家。

  2. 智能体必须有责任主体

    所有智能体,无论实体机器人还是数字智能体,都必须对应明确责任主体,做到可追溯、可确权。

  3. 智能体不能自我复制

    智能体不应具备自我迭代、自我复制生成的能力。

张亚勤以OpenClaw为例指出:

"开源AI智能体'龙虾'这类应用,其主体责任方究竟是谁?这一问题在技术层面目前仍无法实现有效落地。"

3.3 薛澜:从"文字秘书"到"办公室主任"

清华大学苏文书院院长、人工智能国际治理研究院院长薛澜谈到了AI治理模式的转变:

阶段 角色定位 能力特点 监管挑战
过去 "文字秘书" 君子动口不动手 相对简单
现在 "办公室主任" 具备执行复杂任务的能力 大量授权与责任问题

薛澜认为,监管必须同步升级:

  • 一方面监管措施需要尽可能跟上技术迭代速度

  • 另一方面需将AI专项监管与行业原有法规有效结合


四、治理新思维:边发展边治理

4.1 江小涓:AI"善"的三条标准

国家数据专家咨询委员会主任江小涓提出了衡量AI"善"的三条标准:

标准 含义 衡量维度
合理性 AI向善、符合治理原则 经济增长、社会福利增加
合用性 AI能给消费者带来用途 用户体验、场景适配
合意性 符合人类长远福祉 社会公平、分配正义

单纯以节约劳动力为目的,但并未带来质量提升或绿色效益的AI应用应持慎重态度,这类应用若盲目替代低收入群体岗位,将损害社会公平。

4.2 吴晓求:AI加剧财富集中

中国人民大学原副校长吴晓求则提到了AI可能带来财富集中的风险:

"随着以AI为核心的高科技企业发展,社会财富集中度加速提升,国内动不动过几个月就有一些百亿富翁出来,这是以前难以想象的。"

政策建议:既要激励创新者,也要通过二次分配及转移支付来调节财富差距。

4.3 戴璞:价值落地仍需时间

罗兰贝格全球管理委员会联席总裁戴璞表示:

"去年12月我们调查的所有公司中,仍有90%尚未从人工智能项目中看到预期价值。企业的转型需要付出巨大努力——流程的调整与人工智能的深度融合绝非一蹴而就。"

下一个前沿方向是"人工智能+制造业",中国在制造业与人工智能领域都具备优势,"可以预见,人工智能将重塑整个制造业格局。"


五、安全实践:从"养虾"到"养好虾"

5.1 工信部"六要六不要"建议

工信部网络安全威胁和漏洞信息共享平台(NVDB)已将安全使用建议归纳为:

要点 说明
✅ 要定期自查 检查控制界面是否暴露在公网、权限配置是否过高
❌ 不要暴露到互联网 不要将"龙虾"智能体实例暴露到公网

5.2 企业AI安全治理框架

治理层级 核心动作 具体措施
技术层 权限最小化 按需授权,禁用非必要API;建立API密钥轮换机制
流程层 审批闭环 关键操作前需人工确认;建立操作日志审计
组织层 责任到人 每个智能体绑定明确责任主体;建立安全事件响应团队
合规层 持续监测 接入国家漏洞共享平台;定期安全扫描和渗透测试

5.3 权限最小化配置示例

# OpenClaw 权限配置示例
permissions:
  # 文件系统:仅允许访问指定目录
  filesystem:
    allowed_paths:
      - "/home/user/claw-workspace/"
      - "/tmp/claw-temp/"
    disallowed_paths:
      - "/etc/"
      - "/root/"
      - "/home/user/.ssh/"
​
  # 网络:仅允许必要域名
  network:
    allowed_domains:
      - "api.openai.com"
      - "api.anthropic.com"
    block_all_others: true
​
  # 系统命令:白名单机制
  commands:
    allowed:
      - "ls"
      - "cat"
      - "grep"
    disallowed:
      - "rm -rf"
      - "sudo"
      - "chmod"
​
  # 敏感操作:需人工确认
  approval_required:
    - "delete_file"
    - "send_email"
    - "execute_script"

5.4 专家建议汇总

来源 核心建议
百度阮瑜 资产敏感人群使用单独设备操作;严控权限
360周鸿祎 "以模治模"——用AI监督AI,用Skill治理Skill
工信部NVDB 定期自查;不要暴露到公网

5.5 开发者安全自查清单

检查项 操作 频率
API密钥 检查是否泄露、是否设置限额 每周
权限配置 检查是否最小化、有无过度授权 每月
日志审计 检查异常操作记录 每周
版本更新 关注安全补丁,及时升级 实时
备份恢复 关键数据定期备份 每周

六、结语:智能体元年的理性回归

博鳌论坛的这场讨论,标志着智能体发展进入了一个新阶段:

从"能不能做"到"怎么做安全"

OpenClaw的爆火证明了智能体的市场需求,但余晓晖的警示、张亚勤的建议、薛澜的治理框架,共同指向一个方向:

技术狂奔的同时,安全和治理必须跟上。


留给从业者的话

张亚勤:AI发展面临的风险已经相当高。暂且不论物理AI与生物AI,仅数字AI领域就存在诸多问题,有些显而易见,有些则隐蔽难察。

余晓晖:对新技术也要创建更多的认知和敬畏感,要有基本的安全考虑。

阮瑜:如果不懂技术,不妨先观望;如果想玩,用单独设备、严控权限、盯紧账单。

毕竟,龙虾不睡觉,但养虾的人得清醒。


附录:博鳌论坛AI智能体发言速览

专家 核心观点
张亚勤 2026是智能体AI元年;智能体必须有责任主体
余晓晖 2月已监测到OpenClaw风险;需建立安全认知和敬畏感
薛澜 AI从"文字秘书"变"办公室主任";监管需同步升级
江小涓 AI"善"的三条标准:合理性、合用性、合意性
萨姆·道斯 三类风险:恶意使用、事故风险、系统性风险
阮瑜 建议单独设备操作龙虾、严控权限
吴晓求 AI可能加剧财富集中,需通过二次分配调节
戴璞 90%企业尚未从AI项目中看到预期价值

参考资料

  1. 新浪财经. 【环视博鳌热词】智能体元年:从AI走向"AI+"、走进每行每业. 2026-03-25

  2. 澎湃新闻. 信通院院长答澎湃:对"养龙虾"相关安全风险保持监测. 2026-03-24

  3. 人民邮电报. OpenClaw创始人回信确认360独家发现漏洞. 2026-03-22

  4. 澎湃新闻. 张亚勤:今年堪称智能体AI元年,所有智能体必须对应明确责任主体. 2026-03-25

  5. 经济通. 百度阮瑜倡使用单独设备并严控权限. 2026-03-26

  6. 金融时报. 赋能产业 共治风险——博鳌亚洲论坛热议人工智能治理与产业升级. 2026-03-26

  7. SecuriTricks. CVE-2026-26972. 2026-02-20

  8. 环球网. 【环视博鳌热词】智能体元年:从AI走向"AI+". 2026-03-25


本文基于2026年3月博鳌亚洲论坛公开报道整理,数据引用已标注来源。

Logo

小龙虾开发者社区是 CSDN 旗下专注 OpenClaw 生态的官方阵地,聚焦技能开发、插件实践与部署教程,为开发者提供可直接落地的方案、工具与交流平台,助力高效构建与落地 AI 应用

更多推荐