全球AI红线倡议呼吁制定国际AI政策

周一,200多位前国家元首、外交官、诺贝尔奖得主、AI领袖、科学家及其他人士达成共识:应当制定一项关于AI“红线”的国际协议,明确AI永远不应跨越的界限——例如不允许AI模仿人类或自我复制。

这些签署方与70多个关注AI的组织共同签署了“全球AI红线倡议”,呼吁各国政府在2026年前达成“关于AI红线的国际政治协议”。签署者包括英裔加拿大计算机科学家Geoffrey Hinton、某机构联合创始人Wojciech Zaremba、某机构首席信息安全官Jason Clinton、某中心研究科学家Ian Goodfellow等。

“目标不是在重大事件发生后做出反应……而是在大规模、可能不可逆转的风险发生前进行预防,”法国AI安全中心执行主任Charbel-Raphaël Segerie在周一与记者的简报会上表示。

他补充说:“如果各国尚不能就AI应用目标达成一致,至少必须就AI绝对不能做的事情达成共识。”

该公告发布之际,正值第80届联合国大会高级别周在纽约举行前夕。该倡议由法国AI安全中心、未来社会组织和某大学人类兼容人工智能中心共同领导。

诺贝尔和平奖得主Maria Ressa在大会开幕致辞中提到该倡议,呼吁努力“通过全球问责制结束大型科技公司的不受惩罚状态”。

目前确实存在一些区域性AI红线。例如,欧盟的《人工智能法案》禁止在欧盟境内使用某些被视为“不可接受”的AI应用。某国和某国之间也达成了核武器应保持人类控制而非AI控制的协议。但全球共识尚未形成。

从长远来看,未来社会组织AI全球治理主任Niki Iliadis周一向记者表示,仅靠“自愿承诺”是不够的。AI公司内部制定的负责任扩展政策“在真正执行方面存在不足”。她表示,最终需要一个具有执行力的独立全球机构来定义、监督和执行这些红线。

某大学计算机科学教授、著名AI研究员Stuart Russell在简报会上表示:“他们可以通过在确保安全之前不构建通用人工智能来遵守规定。就像核电站开发商在知道如何防止爆炸之前不会建造核电站一样,AI行业必须选择不同的技术路径,从一开始就内置安全性,并且我们必须知道他们正在这样做。”

Russell表示,红线并不会像一些AI监管批评者所声称的那样阻碍经济发展或创新。他说:“你可以在不拥有我们不知道如何控制的通用人工智能的情况下,将AI用于经济发展。这种所谓的二分法——如果你想要医疗诊断,就必须接受毁灭世界的通用人工智能——我认为完全是胡说八道。”
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

Logo

更多推荐