SambaNova推出SN40L AI芯片,挑战行业巨头

新知榜官方账号

2023-09-23 01:24:52

SambaNova推出SN40L AI芯片,挑战行业巨头

高端GPU持续缺货之下,一家要挑战英伟达的芯片初创公司成为行业热议焦点。8枚芯片跑大模型,就能支持5万亿参数(GPT-4的三倍)。这是独角兽企业SambaNova刚刚发布的新型AI芯片SN40L——型号中40代表是他们第四代产品,L代表专为大模型(LLM)优化:高达1.5T的内存,支持25.6万个token的序列长度。

CEORodrigoLiang表示,当前行业标准做法下运行万亿参数大模型需要数百枚芯片,我们的方法使总拥有成本只有标准方法的1/25。SambaNova目前估值50亿美元(约365亿人民币),累计完成了6轮总计11亿美元的融资,投资方包括英特尔、软银、三星、GV等。他们不仅在芯片上要挑战英伟达,业务模式上也说要比英伟达走的更远:直接参与帮助企业训练私有大模型。目标客户上野心更是很大:瞄准世界上最大的2000家企业。

SN40L的硬件指标

1.5TB内存的AI芯片最新产品SN40L,由台积电5纳米工艺制造,包含1020亿晶体管,峰值速度638TeraFLOPS。与英伟达等其他AI芯片更大的不同在于新的三层Dataflow内存系统。520MB片上SRAM内存65GB的高带宽HBM3内存以及高达1.5TB的外部DRAM内存与主要竞品相比,英伟达H100最高拥有80GBHBM3内存,AMDMI300拥有192GBHBM3内存。SN40L的高带宽HBM3内存实际比前两者小,更多依靠大容量DRAM。

RodrigoLiang表示,虽然DRAM速度更慢,但专用的软件编译器可以智能地分配三个内存层之间的负载,还允许编译器将8个芯片视为单个系统。除了硬件指标,SN40L针对大模型做的优化还有同时提供密集和稀疏计算加速。他们认为大模型中许多权重设置为0,像其他数据一样去执行操作很浪费。他们找到一种软件层面的加速办法,与调度和数据传输有关,但没有透露细节,“我们还没准备好向公布是如何做到这一点的”。

SN40L的业务模式

SambaNova的业务模式比较特别,芯片不单卖,而是出售其定制技术堆栈,从芯片到服务器系统,甚至包括部署大模型。为此,他们与TogetherML联合开发了BloomChat,一个1760亿参数的多语言聊天大模型。BloomChat建立在BigScience组织的开源大模型Bloom之上,并在来自OpenChatKit、Dolly2.0和OASST1的OIG上进行了微调。训练过程中,它使用了SambaNova独特的可重配置数据流架构,然后在SambaNovaDataScale系统进行训练。

给每家大企业打造150个大模型在与TheNextPlatform网站交流时,CEORodrigoLiang表示:用于大模型训练的公开数据已快耗尽,但对参数数量的追求还在不断增加。各种大模型的性能相差只有几个百分点,这不是大家应该玩的游戏。他认为大模型与生成式AI商业化的下一个战场是企业的私有数据,尤其是大企业。

这些企业坐拥大量的数据,但自己不知道其中大部分内容是什么。对于企业私有大模型的形态,SambaNova也有与众不同的观点。他们认为最终企业内部不会运行一个GPT-4或谷歌Gemini那样的超大模型,而是根据不同数据子集创建150个独特的模型,聚合参数超过万亿。相当于把GPT-4等大模型内部的MixtureofExperts(专家混合)架构扩展到整个系统,称为CompositionofExperts(专家合成)。在企业运转的每个节点运行一个完整且经过专门调整的基础模型,分别用法律语料库、制造语料库、风险管理语料库、财富管理语料库、客户销售语料库、客户支持语料库等等不同数据训练。这些专家模型之间通过一种软件路由或负载平衡器联在一起,收到推理请求后决定具体向哪个模型推送提示词。

本页网址:https://www.xinzhibang.net/article_detail-13174.html

寻求报道,请 点击这里 微信扫码咨询

关键词

SambaNova AI芯片 SN40L

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯