06月13日,星期二 03:15
火讯财经讯,据IT之家消息,Meta近日在GitHub上开源了其AI语言模型MusicGen,该模型基于谷歌2017年推出的Transformer模型。如同模型名称所示,MusicGen主要用于音乐生成,它可以将文本和已有的旋律转化为完整乐曲。除此之外,MusicGen还支持文本与旋律的组合输入,例如你可以提出生成“一首轻快的曲目”并同时要求“将它与贝多芬的《欢乐颂》结合起来”。根据研发团队对MusicGen的实际表现进行的测试,与谷歌的MusicLM以及Riffusion、Mousai、Noise2Music等其他音乐模型相比,MusicGen在测试音乐与文本提示的匹配度以及作曲的可信度等指标上表现更好,总体而言略高于谷歌MusicLM的水平。目前,Meta已允许该模型的商业使用,并在Huggingface上发布了一个供演示用的网页应用。