关于大语言模型的综述

新知榜官方账号

2023-11-17 04:52:16

概述

本文简述了中国人民大学教授WayneXinZhao等人撰写的关于大语言模型的综述,包括LLMs在预训练、适应调整、应用和能力评估等方面的研究进展。

现有大模型的总体情况概览

文章总结了最近发布的大模型,并展示了它们的开源情况。黄色的部分是开源的模型,可以看到,Meta、Google开源的模型较多。而2021年之后,各家发布的模型也开始增多,其中一眼望去,Google(包括DeepMind)发布的模型相当多。

使用的语料统计

当前大模型使用的语料大多数是公开数据集,包括BookCorpus、CommonCrawl、RedditLinks、Wikipedia等都是常用的数据集。LLMs不再依赖单一的语料库,而是利用多个数据源进行预训练。因此,现有研究通常混合几个现成的数据集(例如C4、OpenWebText和Pile),然后进行进一步的处理以获得预训练语料库。此外,从相关来源(例如维基百科和BigQuery)提取数据以丰富预训练数据中的相应信息也非常重要。

使用的库(开源软件)

文章简要介绍了一系列可用于开发LLM的库,包括Transformers、DeepSpeed、Megatron-LM、JAX、Colossal-AI、BMTrain和FastMoE。

预训练数据源比例

为了开发一款能力强大的LLM,收集来自各种数据源的大量自然语言语料库是关键。现有的LLM主要利用各种公共文本数据集的混合作为预训练语料库。

预训练大模型典型的数据预处理流程

在收集大量文本数据后,必须对其进行预处理以构建预训练语料库,尤其是去除噪音、冗余、无关和潜在有害数据,这可能会极大地影响LLM的容量和性能。

使用的架构和训练细节

当前LLM的主流架构可以大致分为三种主要类型,即编码器-解码器、因果解码器和前缀解码器。文章还展示了主流模型的一些训练细节,包括批次大小、学习速率等。

本页网址:https://www.xinzhibang.net/article_detail-20295.html

寻求报道,请 点击这里 微信扫码咨询

关键词

大语言模型 预训练 适应调整 应用

分享至微信: 微信扫码阅读

相关工具

相关文章