GPT-5 不能停,吴恩达 LeCun 直播回怼马斯克:汽车都还没发明,要什么安全带

大模型研究不能停!

吴恩达和 LeCun 为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了:

马斯克等人叫停 GPT-5 研发的事态再次升级,已从千人联名发展到超过 13500 人签署。

两人还直言,暂停 AI 研究就是反理性:

AI 研究暂停 6 个月,才是真正巨大的伤害。

应该受监管的是 AI 产品,而不是背后的研究

此前暂停比 GPT-4 强大的 AI 试验的呼吁,已得到深度学习三巨头中的 Yoshua Bengio 签名支持,Hinton 未签名但表示“要比 6 个月更长才行”。

此次吴恩达与 LeCun 两人,除了直播阐述各自的观点外,还回应了网友关心的更多问题。

观看了直播和视频回放的网友们则表示,视频出境比推特发言提供了更多的上下文背景和微妙的语气差异。

AGI 逃出实验室,需要担心吗?

LeCun 认为,现在人们对 AI 的担忧和恐惧应分为两类:

一、与未来有关的,AI 不受控制、逃离实验室、甚至统治人类的猜测。

二、与现实有关的,AI 在公平、偏见上的缺陷和对社会经济的冲击。

对第一类,他认为未来 AI 不太可能还是 ChatGPT 式的语言模型,无法对不存在的事物做安全规范。

汽车还没发明出来,该怎么去设计安全带呢?

对第二类担忧,吴恩达和 LeCun 都表示监管有必要,但不能以牺牲研究和创新为代价。

吴恩达表示,AI 在教育、医疗等方面创造巨大价值,帮助了很多人。

暂停 AI 研究才会对这些人造成伤害,并减缓价值的创造。

LeCun 认为,“AI 逃跑”或者“AI 统治人类”这种末日论还让人们对 AI 产生了不切实际的期待。

ChatGPT 给人带来这种想法是因为它语言流利,但语言并不是智能的全部。

语言模型对现实世界的理解非常表面,尽管 GPT-4 是多模态的,但仍然没有任何对现实的“经验”,这就是为什么它还是会一本正经地胡说八道。

而且这个问题,4 年前 LeCun 已经在《科学美国人》上与冷泉港实验室神经科学家 Anthony Zador 一起撰文回应过了,标题就叫《不必害怕终结者》

在直播节目中 LeCun 再次重申了文章的主要观点。

统治的动机只出现在社会化物种中,如人类和其他动物,需要在竞争中生存、进化。

而我们完全可以把 AI 设计成非社会化物种,设计成非支配性的(non-dominant)、顺从的(submissive)、或者遵守特定规则以符合人类整体的利益。

吴恩达则用生物科学史上的里程碑事件“阿希洛马会议”来比较。

1975 年,DNA 重组技术刚刚兴起,其安全性和有效性受到质疑。世界各国生物学家、律师和政府代表等召开会议,经过公开辩论,最终对暂缓或禁止一些试验、提出科研行动指南等达成共识。

吴恩达认为,当年的情况与今天 AI 领域发生的事并不一样,DNA 病毒逃出实验室是一个现实的担忧,而他没有看到今天的 AI 有任何逃出实验室的风险,至少要几十年甚至几百年才有可能。

在回答观众提问“什么情况下你会同意暂停 AI 研究?”时,LeCun 也表示应该区分“潜在危害、真实危害”与“想像中的危害”,当真实危害出现时应该采取手段规范产品。

第一辆汽车并不安全,当时没有安全带、没有好的刹车、也没有红绿灯,过去的科技都是逐渐变安全的,AI 也没什么特殊性。

而对于“如何看待 Yoshua Bengio 签署了联名?”这个问题,LeCun 表示他和 Bengio 一直是朋友,他认为 Bengio 担心的点在于“公司为了盈利掌握科技本质上就是坏的”,但他自己不这么看待,两人观点一致之处在于 AI 研究应该公开进行。

Bengio 最近也在个人网站详细解释了他为什么会签署。

随着 ChatGPT 到来,商业竞争激烈了十多倍,风险在于各公司会急于开发巨大的 AI 系统,把过去十几年间开放的透明的习惯抛在脑后。

直播结束后,吴恩达与 LeCun 两人还在与网友做进一步交流。

对于“你为什么不相信 AI 会逃出实验室”,LeCun 表示让 AI 在一个特定硬件平台上保持运行都很难了。

对于“AI 达到奇点发生突变、不受控制”的回应则是,在现实世界中每个进程都会有摩擦力,指数增长会迅速变成 Sigmoid 函数。

还有网友开玩笑说,语言模型经常被形容为“随机吐出词汇的鹦鹉”,但真实的鹦鹉危险多了,有喙、爪子和伤害人的意图。

LeCun 补充道,澳大利亚凤头鹦鹉更凶狠,我呼吁对凤头鹦鹉实施 6 个月的管制。

One More Thing

对于影响力越来越大的 AI 暂停 6 个月提案,也有越来越多的人表达自己的观点。

比尔盖茨对路透社表示“我不认为让一个特定的组织暂停就会解决这些问题。在一个全球性的行业中,暂停很难执行”。

据福布斯报道,谷歌前 CEO 埃里克施密特认为“监管部门大多数人对科技的理解还不足以正确规范其发展。另外如果在美国暂停 6 个月,只会让别的国家受益。”

与此同时,AI 研究界另一股声音的影响力也逐渐加大。

由非赢利组织 LAION-AI(Stable Diffusion 训练数据提供者)发起的请愿书也有超过 1400 人签署。

这个项目呼吁建设公众资助的国际化超级 AI 基础设施,配备 10 万最先进的 AI 加速芯片,确保创新和安全。

就相当于粒子物理学界的 CERN(欧洲核子研究组织)。

支持者包括 LSTM 之父 Jürgen Schmidhuber,HuggingFace 联合创始人 Thomas Wolf 等知名研究者。

完整视频回放:

https://www.youtube.com/watch?v=BY9KV8uCtj4&t=33s

AI 转写文本:

https://gist.github.com/simonw/b3d48d6fcec247596fa2cca841d3fb7a

参考链接:

  • [1]https://twitter.com/AndrewYNg/status/1644418518056861696

  • [2]https://blogs.scientificamerican.com/observations/dont-fear-the-terminator/

本文来自微信公众号:量子位 (ID:QbitAI),作者:梦晨

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享