AIGC的背后:AI鸿沟与资源消耗

新知榜官方账号

2023-11-12 20:25:20

一觉醒来,世界又变了

ChatGPT走入大众视野之后,AIGC行业迎来了爆发,尤其是上个月,仿佛每一天都可能是「历史性」的一天。以ChatGPT为代表的生成式AI,看似超前,但却以一种极其「古典」的交互形式出现在大众面前。它没有花里胡哨的图标,也没有深入人心的UI设计,而是用最简单的对话框来「震撼」世界。不过,如此简单的形式,却成为了当下网络上和现实里最火热的话题,果然「好看的皮囊千篇一律,有趣的灵魂万里挑一」。只是存在于一个个web网页,一条条简单的问答中,往往会让我们忽略不少问题。

看似毫无负担的一个个「回答」,背后却用着世界上屈指可数的云算力。随着ChatGPT成为常态,隐藏在ChatGPT们背后的这些角落也逐步被报道出来。烧钱费电,还喜欢喝水生成式AI耗费显卡这种情况,有些类似于「挖矿」。

耗费的资源

对大语言模型(LLMs)进行训练,参数越多,性能越好。2018年的LLM大约有1亿个参数,而到了现在,大约就要对2000亿个参数进行训练。运行他们需要算力更强的GPU,英伟达也在2020年推出了相对应的A100高性能GPU,并且也可以打包八张A100形成DGXA100服务器。这些计算服务器,或者说显卡组,最终被安放在所谓的云计算中心,比如说微软的就是Azure云服务。

根据Similarweb的数据,上个月ChatGPT吸引了全球16亿次访问,是一月时的近三倍。这种情况下,即便微软有所准备,给ChatGPT准备了一万多张A100,但面对如此的流量,OpenAI还是坚持不住了,出现了宕机、封号和暂停Plus会员的开通。有人做过预估,想要吃下当下的流量,微软还得买几万张A100、H100显卡,Azure现在的算力远远不够。但买更多的显卡,除了烧钱,也会衍生出许多问题。

除了显卡本身的价值,以及维持他们工作所需的电能外,给他们创造一个凉爽的环境,配置一套蒸发冷却装置。这些有形和运行过程中带来的无形成本,很多公司很难承受。

AI鸿沟

在AIGC浪潮里,无形之中有了那么一个AI鸿沟,大概也分成了两类公司。一种是,花得起耗得起资金,能够训练先进复杂的大预言模型的大型科技公司。另一种就是无法承担成本的的非盈利组织和小型公司。

无论是对于立法机构,还是对于大众,都该保持一些透明度,这也是AI在提供便利的同时,为何研究人员不断挖掘和道明相应的代价。

结语

发展AI,其实也是人类的一次登月。对于AI耗电、排碳,以及最新的费水等研究,并非是在谴责、或者说反对发展AIGC用资源去换取技术的改进。这些数据,其实是提供了AIGC行业的另外一个角度,在一条条符合人味儿回答的背后,到底我们或者说大型科技公司为此付出了什么。

本页网址:https://www.xinzhibang.net/article_detail-19847.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AIGC AI鸿沟 资源消耗

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯