StabilityAI发布开源语言模型StableLM,训练数据集达825GB

新知榜官方账号

2023-10-15 16:36:12

StabilityAI发布开源语言模型StableLM,训练数据集达825GB

StabilityAI是一家近期势头正盛的创业公司,因为开源的AI画图工具StableDiffusion而饱受好评。在本周三的发布中,该公司宣布其语言大模型StableLM现已可供开发人员在GitHub上使用和改编。

StableLM旨在高效地生成文本和代码,它在名为Pile的开源数据集的更大版本上进行训练,其中包含来自各种来源的信息,包括维基百科、StackExchange和PubMed,共22个数据集,容量达到825GB,1.5万亿个token。StableLM模型目前可用版本的参数在30亿到70亿之间,未来将有15亿到650亿范围的多种参数模型可用。

相比OpenAI的封闭,StabilityAI一直把自身定位为AI研究社区的一员,我们大概率会在StableLM上看到和上月发布的Meta开源LLaMa语言模型同样的情况。大量基于原版模型的算法可能会出现,在较小模型体量之上实现很好的效果。

StableLM的微调版聊天界面现在每个人都可以尝试在HuggingFace上托管的StableLM微调聊天模型上和AI进行对话,但StableLM模型仍然存在一些幻觉问题。虽然它使用的数据集应该有助于将基础语言模型引导到更安全的文本分布中,但并不是所有的偏见和毒性都可以通过微调来减轻。

StabilityAI表示将在不久的将来发布一份完整的技术报告,此外还将启动众包RLHF计划,并与OpenAssistant等社区合作,为AI聊天助手创建一个开源数据集。

项目链接:https://github.com/stability-AI/stableLM/

本页网址:https://www.xinzhibang.net/article_detail-16848.html

寻求报道,请 点击这里 微信扫码咨询

关键词

StabilityAI StableLM 语言模型

分享至微信: 微信扫码阅读

相关工具

相关文章