OpenAI正在秘密训练GPT-5?DeepMind联合创始人Mustafa发表意见

新知榜官方账号

2023-09-06 01:22:39

近日,DeepMind联合创始人、InflectionAI现任CEO Mustafa Suleyman在接受外媒采访时,放出了一则重磅消息。谈及Sam Altman否认正在训练GPT-5,Mustafa没有选择直接戳穿,而是有些阴阳怪气地说道:“我认为我们还是坦诚相待比较好,这就是为什么我们公开了我们所拥有的计算总量。”言下之意,就是OpenAI正在秘密训练GPT-5。

此前,OpenAI发布ChatGPT企业版时,网友就曾热议。一名长期研究OpenAI和ChatGPT的以色列创业公司CEO Yam Peleg甚至认为:OpenAI已经获得了GPT-5。

而为了显示自己的坦诚态度,Mustafa也透露未来三年InflectionAI的大模型进展:“在接下来的3年里,我们要训练的模型要比现在大1000倍。甚至在未来18个月内,Inflection的模型就将比目前的前沿模型大100倍。”

对于大模型如此快速的发展,有网友兴奋地表示:活着是多么美好的一天啊!

当然,也有网友对AI的快速发展是否会对社会造成负面影响,表示深深的担忧。Mustafa在采访中回应称,AI目前要具备危险的能力,仍然缺乏基本的组件,比如自主性和行动能力,这至少还需要5年甚至更久的时间。此外,他还表示,至少在未来五年内,开源模型仍将落后于闭源模型,并分享了Google与DeepMind在伦理和监管方面的抓马故事。

对于开源后,大规模访问可能造成的风险,Mustafa提出了一个相当有趣又细思极恐的概念——“权力的快速扩散”。他表示,在未来几年内,我们就会拥有比现在大几个数量级的模型,而开源则意味着每个个体就能轻而易举地获得一个组织、甚至一个国家的权力,单一个体就能对世界造成前所未有的伤害和影响。

Mustafa还提到了自己创始的DeepMind,认为DeepMind也应该披露Gemini接受了多少FLOPS训练。Google和DeepMind的抓马引入外部监督进行治理,是Mustafa在DeepMind的十年间,花费大量时间推进的一样工程,但最终却很快以失败告终。他说:“这是一项相当痛苦的工作”,并追加表示权力方当然不希望这样,尽管自己认为谷歌是出于好意,但它的运作仍然是传统的官僚机构模式。

未来AI训练也不需要通过一味地堆叠更多算力,来训练更大的模型。比如,Llama2、Falcon等模型,凭借15亿参数或20亿参数,就获得了有1750亿参数的GPT-3的能力。

InflectionAI正在建造世界上最大的超级计算机之一,甚至在接下来的一年半里,还将进行一次比GPT-4的语言模型训练运行大10倍或100倍的语言模型训练。

面对AI能力的快速进步,Mustafa一度担心监管政策的落后,甚至曾经表示,要“寻求赢得时间的方法,放慢速度,为找到更多问题的答案提供空间”。然而,现实似乎却是,AI的发展正在一路高踩油门,就连InflectionAI自己也似乎没有刹车的意图。

本页网址:https://www.xinzhibang.net/article_detail-10919.html

寻求报道,请 点击这里 微信扫码咨询

关键词

OpenAI GPT-5 DeepMind Mustafa AI 模型训练

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯