整理 | 朱珂欣   

出品 | CSDN程序人生(ID:coder_life)

自从 3 月 30 日,马斯克等人叫停 GPT-5 研发至少 6 个月,各路大佬纷纷有了后续回应,伴随着“支持”和“反对”各站一派。

468d4124405d63395c3fb7e67a308529.png

(图源:Twitter 截图)

先是吴恩达在 Twitter 上罗列出了四个理由,直球式反对 GPT-4 研究暂停 6 个月。

随后,深度学习三巨头的表态也很引人关注,当 Yoshua Bengio 的名字赫然列在联名者的第一位, Geoffrey Hinton 选择“沉默”之后,Yann LeCun 却直接在 Twitter 上表态:“我没有签署这封信。”一时之间,大家议论纷纷。

眼看着事态愈演愈烈,4 月 7 日,吴恩达和 Yann LeCun 这两位“反对者”还亲自在 YouTube 搞了场名为“ Why the 6-month AI Pause is a Bad Idea”的直播,对话涵盖了与人工智能发展、其社会影响和该领域未来相关的一系列主题,吸引了数千名观众。

dff33f8c7c64fccf7647292580f7e6c2.png

(图源:Twitter 截图)

来自现实和未来的双重焦虑

d65c5472e5397bf64de99ce33d2be7a2.png

(图源: YouTube 截图)

在直播开场白中,吴恩达就简明扼要的阐述了观点:“我们对‘为期六个月的暂停提案’进行了长时间的思考,并认为这是一个重要的话题。如果政府实施这个提案,想必会造成重大伤害。因此,Yann LeCun 和我想和大家聊聊这件事。”

首先,吴恩达站在过去 AI 历史发展的角度上表示:AI 领域在近几十年来取得了显著的进步,尤其是在过去几年中。ChatGPT、LLaMa 、Midjourney 、Stable Diffusion 和 Dall-E 的出现,为新应用带来了希望,但也存在潜在危害和风险。

因此,人们担忧的聚焦点主要在两个方面:一方面是现实问题,例如:公平、偏见和社会经济下滑。另一方面是对未来的猜测,例如通用人工智能(AGI)造成的一些不可控、意外的后果。

而 Yann LeCun 在直播中坦言:签署“联名信”的人士可能主要基于这几个动机。一部分较为不理性的人,会担心 AGI 被打开后,将在短时间内消灭人类。另一部分较理性的人,会认为有真正的潜在危险需要处理 。

Yann LeCun 坦言:“我同意 AI 存在潜在危险的看法,它的确存在很多问题,因此需要让其变得可控。”

打消顾虑,而并非对 AI 杞人忧天

直播中,吴恩达和 Yann LeCun 为了打消人们对 AI 不切实际的期待后产生的“焦虑”,分别做出了自己的阐述。

吴恩达举例了 1975 年的 Asilomar 会议。该会议是基于 DNA 新技术提供了相当大的机会,但存在潜在的健康和环境风险的情况下召开的。因此,通过 Asilomar 会议最终对重组 DNA 技术发展初步达成共识、确立了重组 DNA 实验研究的指导方针或准则、就一些暂缓或严令禁止的实验达成共识、提出生物科学家和科研机构的行动指南等。

但吴恩达表示,与传染病的传播不同,他没有看到人工智能逃跑的任何现实风险。如果 AGI 将带来显示的风险,至少需要几十年,甚至几个世纪。

Yann LeCun 则引用了 4 年前在《科学美国人》上与冷泉港实验室神经科学家 Anthony Zador 一起编写的文章《 Don’t Fear the Terminator 》中的观点。

75dcfffbd1f9f83396f59dd7c4882645.png

(图源:scientificamerican 截图)

他表示:统治的动机只出现在社会化物种中,如人类和其他动物,需要在竞争中生存、进化。而我们完全可以把 AI 设计成非社会化物种,设计成非支配性的、顺从的、或者遵守特定规则以符合人类整体的利益。

值得一提的是,他们在直播中还表示:GPT-4 接受过一点训练,但他们对世界是极其肤浅的,还没有那么接近人类水平的智能。也许在未来几十年内,我们会拥有智能水平等于或超过人类的智能系统,但毫无疑问,这不会在明天发生。因此,关于如何正确使它们安全的讨论有些为时过早。毕竟如果汽车没有,怎么能为汽车设计安全带?

适当监管产品,但不能停止研发

基于人们对 AI 可能被滥用产生的担忧,吴恩达和  Yann LeCun 表示:一些监管是必要的,但不能以牺牲研究和创新为代价。

他们一致认为,暂停开发或部署模型是不现实的,往往最后会适得其反。同时,还呼吁研究人员、政府和企业之间加强合作和透明度,以确保人们可以使用负责任的 AI 。

Yann LeCun 坦言在看到“联名信”的第一反应是:呼吁推迟研发带有一丝蒙昧主义,也减缓了知识和科学的进步。

就产品问题而言, Yann LeCun 他赞成监管人们手中的“大模型”,但不赞成监管研发。他认为除了减少我们可以用来使技术更好、更安全的知识之外,没有任何目的。虽然 AI 有一些伤害的风险,比如偏见、公平、权力集中,但生成式人工智能在教育、医疗、教育辅导上创造的价值比比皆是。

Yann LeCun 还表示:“构建比 GPT-4 更好的模型将有助于这些应用程序帮助很多人,因此,暂停将会造成很大的伤害,组织有价值的东西产生。”

直播播出后, YouTube 的留言区也是热闹非凡,许多站“支持派”的网友纷纷表示:“这是有启发性的,感谢你们表现出勇气并分享真实的观点”;“人工智能研究需要继续不受限制地发展”;“ 6 个月 AI 暂停有点为时过早,也许不是一个好主意”。也有站“反对派”的网友称:“滥用和造成的严重社会混乱的风险很高”;“我们不能把安全放在没有保障的东西上”……对此,你怎么看,可以在评论区留言和讨论。

参考链接:

https://venturebeat.com/ai/titans-of-ai-industry-andrew-ng-and-yann-lecun-oppose-call-for-pause-on-powerful-ai-systems/
https://www.youtube.com/watch?v=BY9KV8uCtj4
https://gist.github.com/simonw/b3d48d6fcec247596fa2cca841d3fb7a

Logo

欢迎加入我们的广州开发者社区,与优秀的开发者共同成长!

更多推荐