当前位置: 网站首页 >AI教程资讯 >正文

Freestyler – 西工大联合微软和香港大学推出的说唱乐生成模型

来源:爱论文 时间:2025-01-23 17:51:48

Freestyler是什么

Freestyler是西北工业大学计算机科学学院音频、语音与语言处理小组(ASLP@NPU)、微软及香港中文大学深圳研究院大数据研究所共同推出的说唱乐生成模型,能直接根据歌词和伴奏创作出说唱音乐。Freestyler基于语言模型生成语义标记,再基于条件流匹配模型产生频谱图,最后用神经声码器转换成音频。Freestyler推出RapBank数据集,支持训练和模型开发,能实现零样本的音色控制,让用户生成具有特定音色的说唱声乐。

Freestyler

Freestyler的主要功能

说唱声乐生成:直接从歌词和伴奏输入生成说唱声乐,无需用户具备音乐知识。零样本音色控制:基于3秒的参考音频,Freestyler能适应任何说话者的音色,实现零样本的音色控制。数据集创建:为解决说唱数据的稀缺问题,团队创建RapBank数据集,并提供数据处理流程。风格和节奏对齐:生成的说唱声音与伴奏的风格和节奏高度对齐,包含在风格上和节奏上。高质量音频输出:基于先进的声码器技术,生成自然且高质量的说唱音频。

Freestyler的技术原理

歌词到语义(Lyrics-to-Semantic):用语言模型(如LLaMA)预测基于歌词和伴奏特征的离散语义标记。基于Wav2Vec XLS-R等自监督学习(SSL)模型提取特征,用K-means聚类得到语义标记。语义到频谱图(Semantic-to-Spectrogram):应用条件流匹配(CFM)技术将离散语义标记转换为连续的mel频谱图。参考音频被纳入CFM模型,补充语义标记中缺失的音色信息。频谱图到音频(Spectrogram-to-Audio):用预训练的声码器(如BigVGAN-V2)从频谱图中重建音频。声码器能处理多种类型的音频数据,包括不同语言的语音、歌唱和环境声音。数据集和处理流程:RapBank数据集包含从互联网收集的大量说唱歌曲,经过自动爬取、源分离、分割、歌词识别和质量过滤等步骤处理。数据集处理包括音乐源分离、语音活动检测(VAD)分割、自动语音识别(ASR)歌词识别和质量相关指标计算。零样本控制:参考编码器从参考音频中提取全局说话者嵌入,用在控制生成声音的音色。

Freestyler的项目地址

GitHub仓库:https://github.com/NZqian/RapBankarXiv技术论文:https://arxiv.org/pdf/2408.15474

Freestyler的应用场景

音乐创作:为音乐制作人和作曲家提供灵感,快速生成说唱歌词和声乐,创作新的音乐作品。现场表演:在音乐会或DJ表演中,实时生成伴随音乐的说唱声乐,为现场观众提供动态的音乐体验。游戏音效:在视频游戏中,生成角色的说唱音效,增强游戏的沉浸感和互动性。教育与培训:在音乐教育中,帮助学生学习说唱技巧和音乐创作,用生成示范音频提高学习效果。社交媒体内容创作:内容创作者生成独特的说唱音频,丰富其社交媒体平台上的视频或音频内容,吸引更多观众。
上一篇:SnapGen – Snap联合港科大等机构推出的移动端文生图模型
相关资讯 更多+
  • Freestyler – 西工大联合微软和香港大学推出的说唱乐生成模型
    Freestyler – 西工大联合微软和香港大学推出的说唱乐生成模型

    Freestyler是西北工业大学计算机科学学院音频、语音与语言处理小组(ASLP@NPU)、微软及香港中文大学深圳研究院大数据研究所共同推出的说唱乐生成模型,能直接根据歌词和伴奏创作出说唱音乐。

    AI教程资讯 2023-04-14

  • SnapGen – Snap联合港科大等机构推出的移动端文生图模型
    SnapGen – Snap联合港科大等机构推出的移动端文生图模型

    SnapGen是Snap Inc、香港科技大学、墨尔本大学等机构联合推出的文本到图像(T2I)扩散模型,能在移动设备上快速生成高分辨率(1024x1024像素)的图像,且只需1 4秒。模型用379M参数实现这一性能,显著减少模型大小和计算需求,同时在GenEval指标上达到0 66的高分,超越许多参数量更大的SDXL和IF-XL模型。

    AI教程资讯 2023-04-14

  • CosyVoice 2.0 – 阿里开源的语音生成大模型
    CosyVoice 2.0 – 阿里开源的语音生成大模型

    CosyVoice 2 0 是阿里巴巴通义实验室推出的CosyVoice语音生成大模型升级版,模型用有限标量量化技术提高码本利用率,简化文本-语音语言模型架构,推出块感知因果流匹配模型支持多样的合成场景。CosyVoice 2 在发音准确性、音色一致性、韵律和音质上都有显著提升。

    AI教程资讯 2023-04-14

  • Megrez-3B-Omni – 无问芯穹开源的端侧全模态理解模型
    Megrez-3B-Omni – 无问芯穹开源的端侧全模态理解模型

    Megrez-3B-Omni是无问芯穹推出的全球首个端侧全模态理解开源模型,能处理图像、音频和文本三种模态数据。Megrez-3B-Omni在多个主流测试集上展现出超越34B模型的性能,推理速度领先同精度模型达300%。

    AI教程资讯 2023-04-14

最新录入 更多+
确定