Meta推出名为MusicGen的开源AI模型,可以根据文本提示生成音乐

新知榜官方账号

2023-09-15 08:52:19

背景介绍

随着聊天机器人ChatGPT的兴起,人们开始尝试把生成式人工智能(AI)技术应用在包括音乐在内的多个领域。Meta近日推出了名为MusicGen的开源AI模型,这是一种深度学习语言模型,可以根据文本提示生成音乐。

MusicGen的训练和推出

Facebook研究科学家GabrielSynnaeve上周末在领英上公布了这一消息,并称其为简单可控的音乐生成模型。据悉,由Synnaeve领导的团队使用了2万小时的授权音乐来训练MusicGen,其中包括来自内部数据集的1万首高质量音乐曲目,以及素材供应商Shutterstock和Pond5的曲目。Meta已经在Github上以开源的形式发布了MusicGen的代码和模型,并允许商业使用。

MusicGen的使用

用户目前可在HuggingFace上体验MusicGen,除了文本提示外,还可搭配音频一同作为生成音乐的条件。在确定提示信息后,便可让MusicGen生成一段12秒的音频,不过需要等待一些时间,等待时长取决于在线的用户数量和用户所设置的提示信息。经笔者实测,在要求MusicGen生成一段具备中国风元素的重金属音乐后,MusicGen大约花了大约3分钟时间(不包括排队等待时长)给出了结果。

MusicGen与其他音乐模型的比较

MusicGen基于谷歌于2017年发布的Transformer模型,谷歌今年1月也发布了名为MusicLM的音乐生成模型,并于5月向所有用户开放。除了谷歌的MusicLM外,目前较为常见的音乐模型还有Riffusion、Mousai和Noise2Music等。

本页网址:https://www.xinzhibang.net/article_detail-11435.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI MusicGen 音乐生成模型

分享至微信: 微信扫码阅读

相关工具

相关文章