ChatGPT与AI芯片的关系及市场需求分析

新知榜官方账号

2023-10-16 22:02:17

ChatGPT与AI芯片的关系

ChatGPT是一种机器人模型,需要大量的算力支持。根据数据,ChatGPT训练需要消耗的算力大约为3640PF-days。假设我们有一个500P算力的超算中心,完成ChatGPT训练需要花费7到8天时间。如果我们有7到8个这样的超算中心并行运算,完成训练就只需要花费1天时间。对于ChatGPT来说光基础设施的投入就要两百亿以上。

作为一家创业公司,OpenAI选择的还是一种相对轻快的数据存储和运行方法——上云。目前ChatGPT的训练都是基于微软的超算基础设施完成的。微软的超算设施主要是由英伟达V100和A100GPU组成的高带宽集群。后续应该会升级到性能更强大的英伟达H100GPU计算集群。对于ChatGPT的运行,至少需要7到8个这样的数据中心。

ChatGPT背后巨大的算力需求将会给高性能计算领域带来巨大的市场需求,这其中收益最大的当属以英伟达为代表的云端AI芯片企业。ChatGPT背后的AI芯片英伟达目前能支持ChatGPT运行的主要产品有V100、A100和T100三个系列。同样的,国产AI芯片也拥有训练能力,也可以支持ChatGPT的运行。代表产品有寒武纪思元290、壁仞科技BR100、燧原科技的邃思2.0以及百度昆仑芯2代等。

市场需求分析

国产AI芯片与英伟达产品的差距在硬件性能上不大,但在软件生态上的差距很大。国内AI芯片企业要真正达到国外巨头的水平,还有很长的路要走。ChatGPT背后的算力需求将会给高性能计算领域带来巨大的市场需求,这其中收益最大的当属以英伟达为代表的云端AI芯片企业。国内发展类似于ChatGPT这样的机器人模型在硬件支持上是具备国产化的条件的。

本页网址:https://www.xinzhibang.net/article_detail-16960.html

寻求报道,请 点击这里 微信扫码咨询

关键词

ChatGPT AI芯片 算力需求

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯