GPT-5不能停!吴恩达LeCun直播回怼马斯克:汽车都还没发明,要什么安全带

2023-04-15 10:40 407 阅读 ID:969
机器学习算法与自然语言处理
机器学习算法与自然语言处理

大模型研究不能停!

吴恩达和LeCun为了这事儿,甚至亲自搞了场直播。毕竟再不出手,事态眼看着越来越严重了:

马斯克等人叫停GPT-5研发的事态再次升级,已从千人联名发展到超过13500人签署。

两人还直言,暂停AI研究就是反理性:

AI研究暂停6个月,才是真正巨大的伤害。

应该受监管的是AI产品,而不是背后的研究。

此前暂停比GPT-4强大的AI试验的呼吁,已得到深度学习三巨头中的Yoshua Bengio签名支持,Hinton未签名但表示“要比6个月更长才行”。

此次吴恩达与LeCun两人, 除了直播阐述各自的观点外,还回应了网友关心的更多问题。

观看了直播和视频回放的网友们则表示,视频出境比推特发言提供了更多的上下文背景和微妙的语气差异。

LeCun认为,现在人们对AI的担忧和恐惧应分为两类:

一、与未来有关的,AI不受控制、逃离实验室、甚至统治人类的猜测。

二、与现实有关的,AI在公平、偏见上的缺陷和对社会经济的冲击。

对第一类,他认为未来AI不太可能还是ChatGPT式的语言模型,无法对不存在的事物做安全规范。

汽车还没发明出来,该怎么去设计安全带呢?

对第二类担忧,吴恩达和LeCun都表示监管有必要,但不能以牺牲研究和创新为代价。

吴恩达表示,AI在教育、医疗等方面创造巨大价值,帮助了很多人。

暂停AI研究才会对这些人造成伤害,并减缓价值的创造

LeCun认为,“AI逃跑”或者“AI统治人类”这种末日论还让人们对AI产生了不切实际的期待。

ChatGPT给人带来这种想法是因为它语言流利,但语言并不是智能的全部。

语言模型对现实世界的理解非常表面,尽管GPT-4是多模态的,但仍然没有任何对现实的“经验”,这就是为什么它还是会一本正经地胡说八道。

而且这个问题,4年前LeCun已经在《科学美国人》上与冷泉港实验室神经科学家Anthony Zador一起撰文回应过了,标题就叫《不必害怕终结者》。

在直播节目中LeCun再次重申了文章的主要观点。

统治的动机只出现在社会化物种中,如人类和其他动物,需要在竞争中生存、进化。

而我们完全可以把AI设计成非社会化物种,设计成非支配性的(non-dominant)、顺从的(submissive)、或者遵守特定规则以符合人类整体的利益。

吴恩达则用生物科学史上的里程碑事件“阿希洛马会议”来比较。

1975年,DNA重组技术刚刚兴起,其安全性和有效性受到质疑。世界各国生物学家、律师和政府代表等召开会议,经过公开辩论,最终对暂缓或禁止一些试验、提出科研行动指南等达成共识。

吴恩达认为,当年的情况与今天AI领域发生的事并不一样,DNA病毒逃出实验室是一个现实的担忧,而他没有看到今天的AI有任何逃出实验室的风险,至少要几十年甚至几百年才有可能。

在回答观众提问“什么情况下你会同意暂停AI研究?”时,LeCun也表示应该区分“潜在危害、真实危害”与“想像中的危害”,当真实危害出现时应该采取手段规范产品。

第一辆汽车并不安全,当时没有安全带、没有好的刹车、也没有红绿灯,过去的科技都是逐渐变安全的,AI也没什么特殊性。

而对于“如何看待Yoshua Bengio签署了联名?”这个问题,LeCun表示他和Bengio一直是朋友,他认为Bengio担心的点在于“公司为了盈利掌握科技本质上就是坏的”,但他自己不这么看待,两人观点一致之处在于AI研究应该公开进行。

Bengio最近也在个人网站详细解释了他为什么会签署。

随着ChatGPT到来,商业竞争激烈了十多倍,风险在于各公司会急于开发巨大的AI系统,把过去十几年间开放的透明的习惯抛在脑后。

直播结束后,吴恩达与LeCun两人还在与网友做进一步交流。

对于“你为什么不相信AI会逃出实验室”,LeCun表示让AI在一个特定硬件平台上保持运行都很难了。

对于“AI达到奇点发生突变、不受控制”的回应则是,在现实世界中每个进程都会有摩擦力,指数增长会迅速变成Sigmoid函数。

还有网友开玩笑说,语言模型经常被形容为“随机吐出词汇的鹦鹉”,但真实的鹦鹉危险多了,有喙、爪子和伤害人的意图。

LeCun补充道,澳大利亚凤头鹦鹉更凶狠,我呼吁对凤头鹦鹉实施6个月的管制。

One More Thing

对于影响力越来越大的AI暂停6个月提案,也有越来越多的人表达自己的观点。

比尔盖茨对路透社表示“我不认为让一个特定的组织暂停就会解决这些问题。在一个全球性的行业中,暂停很难执行”。

据福布斯报道,谷歌前CEO埃里克施密特认为“监管部门大多数人对科技的理解还不足以正确规范其发展。另外如果在美国暂停6个月,只会让别的国家受益。”

与此同时,AI研究界另一股声音的影响力也逐渐加大。

由非赢利组织LAION-AI(Stable Diffusion训练数据提供者)发起的请愿书也有超过1400人签署。

这个项目呼吁建设公众资助的国际化超级AI基础设施,配备10万最先进的AI加速芯片,确保创新和安全。

就相当于粒子物理学界的CERN(欧洲核子研究组织)。

支持者包括LSTM之父Jürgen Schmidhuber,HuggingFace联合创始人Thomas Wolf等知名研究者。

完整视频回放:
https://www.youtube.com/watch?v=BY9KV8uCtj4&t=33sAI转写文本:
https://gist.github.com/simonw/b3d48d6fcec247596fa2cca841d3fb7a参考链接:
[1]https://twitter.com/AndrewYNg/status/1644418518056861696
[2]https://blogs.scientificamerican.com/observations/dont-fear-the-terminator/

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn