新知榜官方账号
2023-09-06 01:22:39
近日,DeepMind联合创始人、InflectionAI现任CEO Mustafa Suleyman在接受外媒采访时,放出了一则重磅消息。谈及Sam Altman否认正在训练GPT-5,Mustafa没有选择直接戳穿,而是有些阴阳怪气地说道:“我认为我们还是坦诚相待比较好,这就是为什么我们公开了我们所拥有的计算总量。”言下之意,就是OpenAI正在秘密训练GPT-5。
此前,OpenAI发布ChatGPT企业版时,网友就曾热议。一名长期研究OpenAI和ChatGPT的以色列创业公司CEO Yam Peleg甚至认为:OpenAI已经获得了GPT-5。
而为了显示自己的坦诚态度,Mustafa也透露未来三年InflectionAI的大模型进展:“在接下来的3年里,我们要训练的模型要比现在大1000倍。甚至在未来18个月内,Inflection的模型就将比目前的前沿模型大100倍。”
对于大模型如此快速的发展,有网友兴奋地表示:活着是多么美好的一天啊!
当然,也有网友对AI的快速发展是否会对社会造成负面影响,表示深深的担忧。Mustafa在采访中回应称,AI目前要具备危险的能力,仍然缺乏基本的组件,比如自主性和行动能力,这至少还需要5年甚至更久的时间。此外,他还表示,至少在未来五年内,开源模型仍将落后于闭源模型,并分享了Google与DeepMind在伦理和监管方面的抓马故事。
对于开源后,大规模访问可能造成的风险,Mustafa提出了一个相当有趣又细思极恐的概念——“权力的快速扩散”。他表示,在未来几年内,我们就会拥有比现在大几个数量级的模型,而开源则意味着每个个体就能轻而易举地获得一个组织、甚至一个国家的权力,单一个体就能对世界造成前所未有的伤害和影响。
Mustafa还提到了自己创始的DeepMind,认为DeepMind也应该披露Gemini接受了多少FLOPS训练。Google和DeepMind的抓马引入外部监督进行治理,是Mustafa在DeepMind的十年间,花费大量时间推进的一样工程,但最终却很快以失败告终。他说:“这是一项相当痛苦的工作”,并追加表示权力方当然不希望这样,尽管自己认为谷歌是出于好意,但它的运作仍然是传统的官僚机构模式。
未来AI训练也不需要通过一味地堆叠更多算力,来训练更大的模型。比如,Llama2、Falcon等模型,凭借15亿参数或20亿参数,就获得了有1750亿参数的GPT-3的能力。
InflectionAI正在建造世界上最大的超级计算机之一,甚至在接下来的一年半里,还将进行一次比GPT-4的语言模型训练运行大10倍或100倍的语言模型训练。
面对AI能力的快速进步,Mustafa一度担心监管政策的落后,甚至曾经表示,要“寻求赢得时间的方法,放慢速度,为找到更多问题的答案提供空间”。然而,现实似乎却是,AI的发展正在一路高踩油门,就连InflectionAI自己也似乎没有刹车的意图。
相关工具
相关文章
相关快讯
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16