英伟达H100刷新MLPerfTrainingv3.0基准测试纪录

新知榜官方账号

2023-07-03 09:34:29

MLPerfTrainingv3.0基准测试

MLPerf是一个由学术界、实验室和产业组成的人工智能领袖联盟,是目前国际公认的权威AI性能评测基准。Trainingv3.0包含8种不同的负载,包括视觉(影像分类、生物医学影像分割、两种负载的物体侦测)、语言(语音识别、大语言模型、自然语言处理)和推荐系统。简单来说,就是由不同的设备供应商提交完成基准任务所需要的时间。(Trainingv3.0训练基准,来源:MLCommons)

英伟达H100刷新所有纪录

根据最新数据,英伟达H100芯片组在人工智能算力表现的测试中,刷新了所有组别的纪录,也是唯一一个能够跑完所有测试的硬件平台。(来源:英伟达、MLCommons)

大语言模型训练任务纪录被刷至11分钟

在投资者比较关注的“大语言模型”训练测试中,英伟达和GPU云算力平台CoreWeave提交的数据为这项测试设定了残酷的业界标准。在896个英特尔至强8462Y+处理器和3584个英伟达H100芯片的齐心协力下,仅仅花了10.94分钟就完成了基于GPT-3的大语言模型训练任务。除了英伟达外,只有英特尔的产品组合在这个项目上获得评测数据。由96个至强8380处理器和96个HabanaGaudi2AI芯片构建的系统中,完成同样测试的时间为311.94分钟。横向对比,使用768个H100芯片的平台跑完这个测试也只需要45.6分钟。(芯片越多数据越好看,来源:英伟达)对于这个结果,英特尔也表示仍有上升空间。理论上只要堆更多的芯片,运算的结果自然会更快。英特尔AI产品高级主管JordanPlawner对媒体表示,接下来Habana的运算结果将会呈现1.5倍-2倍的提升。Plawner拒绝透露HabanaGaudi2的具体售价,仅表示业界需要第二家厂商提供AI训练芯片,而MLPerf的数据显示英特尔有能力填补这个需求。

BERT-Large模型训练任务纪录被压至0.13分钟

在中国投资者更熟悉的BERT-Large模型训练中,英伟达和CoreWeave将数据刷到了极端的0.13分钟,在64卡的情况下,测试数据也达到了0.89分钟。BERT模型中的Transformer结构正是目前主流大模型的基础架构。本文来自财联社,编辑:史正丞,36氪经授权发布。

本页网址:https://www.xinzhibang.net/article_detail-4834.html

寻求报道,请 点击这里 微信扫码咨询

关键词

英伟达H100 MLPerfTrainingv3.0 大语言模型训练任务

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯