目录

1、概述

2、重点内容(三大核心义务)

2.1 透明度义务

2.2 版权合规义务

2.3 安全与保障义务(仅限系统性风险模型)


1、概述

  • 《人工智能法案》的补充:于2025年7月10日正式发布,将于2025年8月2日生效,AI Act下GPAI模型的“自愿性合规工具”。
  • 名义自愿,实质准强制:虽然企业可自愿签署,但遵守准则被视为履行《AI法案》第53条(透明度与版权)和第55条(系统性风险)义务的直接证据。未签署企业需自行证明合规,面临更高监管风险。
  • 目的:旨在解决AI黑箱问题、版权争议及前沿模型失控风险,平衡创新与基本权利保护。
  • 处罚机制:违反《AI法案》义务的企业可能面临全球营业额7%或3500万欧元(以高者为准)的罚款。
  • 适用范围:所有在欧盟运营的GPAI模型(如ChatGPT、Gemini、Llama等),尤其针对计算能力 > 10²⁵ FLOPs的系统性风险模型。

2、重点内容(三大核心义务)

2.1 透明度义务

  • 模型文档编制

    • 必须按欧盟标准化模板记录模型全生命周期信息,包括:

      • 训练数据来源、特征及合规依据;

      • 模型架构设计原理与决策逻辑;

      • 性能基准测试结果及已知局限性(如偏见风险);

      • 风险缓解措施。

    • 文档需持续更新,旧版本保留10年。

  • 分层披露机制

    • 对监管机构:提供完整技术文档(需保密处理);

    • 对下游开发者:提供API文档与集成指南;

    • 对终端用户:提供简明使用说明及风险提示。

  • 支持下游生态

    • 需在14天内响应下游开发者索取模型能力与局限信息的请求,助其合规集成模型。

2.2 版权合规义务

  • 版权政策制定

    • 要求企业制定明确的版权合规政策,覆盖数据获取、训练、输出内容管理及用户指引,并随法律动态更新。

  • 训练数据合规

    • 建立“数据族谱”(Data Lineage)系统,确保每个训练数据样本均有合法授权或符合版权法例外条款(如文本与数据挖掘例外)。

  • 侵权防控机制

    • 部署多模态内容过滤技术,自动识别训练/推理中的侵权内容(文本、图像、音频等);

    • 设立标准化投诉通道,指定法律联系人并在限时内处理侵权申诉。

2.3 安全与保障义务(仅限系统性风险模型)

针对最先进大模型(如GPT-5、Gemini Ultra等)的专项要求:

  • 动态风险评估框架

    • 持续监测模型对社会秩序、经济稳定、基本权利的影响,定期提交风险评估报告。

  • 多层次安全测试

    • 对抗测试:模拟恶意攻击检验模型鲁棒性;

    • 红队演练:邀请第三方专家模拟滥用场景;

    • 压力测试:评估极端条件下的失效风险。

  • 事件应急响应

    • 建立自动化安全事件检测系统;

    • 制定分级响应预案,重大事件需24小时内向欧盟AI办公室报告。

更多推荐