近日,Meta在GitHub上以开源方式发布了AI音乐生成模型MusicGen的代码,该AI模型利用Transformer架构,可以根据文本和旋律提示创作音乐。
与Riffusion、Mousai、MusicLM和Noise2Music等其他音乐模型相比,MusicGen在音乐与文本之间的匹配度以及作曲的可信度等客观和主观指标上表现得更加优异。
研发团队还对 MusicGen 的实际表现进行了测试。结果显示,与谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其他音乐模型相比,MusicGen 在测试音乐与文本提示的匹配度以及作曲的可信度等指标上表现更好,总体而言略高于谷歌 MusicLM 的水平。
免责声明:本文图片引用自网络,如有侵权请联系我们予以删除
搞趣网发布此文仅为传递信息,不代表搞趣网认同其观点。