Colossal-AI:如何低成本使用大规模AI模型

新知榜官方账号

2023-08-31 22:16:43

Colossal-AI:如何低成本使用大规模AI模型

Colossal-AI通过异构内存系统,高效地同时使用GPU显存以及价格低廉的CPU内存,在仅有一块GPU的个人PC上便能训练高达180亿参数GPT,可提升模型容量十余倍,大幅度降低了AI大模型微调和推理等下游任务和应用部署的门槛,还能便捷扩展至大规模分布式。HuggingFace为深度学习社区提供了超过5万个AI模型的实现,最其中也不乏像GPT,OPT这样的大模型,现已成为最流行的AI库之一。Colossal-AI无缝支持HuggingFace社区模型,让大模型对每一位开发者都变得触手可及。

导致大模型使用成本增高的核心原因是显存限制。GPU计算虽快,但显存容量有限,无法容纳大模型。Colossal-AI针对这一痛点,通过异构内存系统,高效地同时使用GPU显存以及价格低廉的CPU内存,在仅有一块GPU的个人PC上便能训练高达180亿参数GPT,可提升模型容量十余倍,大幅度降低了AI大模型微调和推理等下游任务和应用部署的门槛,还能便捷扩展至大规模分布式。

在单张GPU,与微软DeepSpeed相比,Colossal-AI的使用自动化的auto策略,在不同的模型规模上相比DeepSpeed的ZeROOffloading策略,均体现出显著优势,最快可实现40%的加速。而PyTorch等传统深度学习框架,在单张GPU上已经无法运行如此大的模型。

针对现有方案并行维度有限、效率不高、通用性差、部署困难、缺乏维护等痛点,Colossal-AI通过高效多维并行和异构并行等技术,让用户仅需极少量修改,即可高效快速部署AI大模型训练。

Colossal-AI相关解决方案已成功自动驾驶、云计算、零售、医药、芯片等行业知名厂商落地应用,广受好评。Colossal-AI注重开源社区建设,提供中文教程,开放用户社群及论坛,对于用户反馈进行高效交流与迭代更新,不断添加PaLM、AlphaFold等前沿应用。自然开源以来,Colossal-AI已经多次在GitHub及PapersWithCode热榜位列世界第一,与众多已有数万star的明星开源项目一起受到海内外关注!

本页网址:https://www.xinzhibang.net/article_detail-10682.html

寻求报道,请 点击这里 微信扫码咨询

相关工具

相关文章