应用语言模型技术创作人工智能音乐

诸如 nvidia megatron lm 和 openai gpt-2 和 gpt-3 等语言模型已被用于提高人类生产力和创造力。具体而言,这些模型已被用作编写、编程和绘制的强大工具。相同的架构可以用于音乐创作。
在这些领域中使用语言模型需要大型数据集。从 50gb 的未压缩文本文件开始生成语言并不奇怪。这意味着需要 gpu 计算日志来有效地训练模型,以进行快速开发、原型制作和迭代。
这篇文章介绍了在人工智能音乐领域使用 nvidia dgx-2 站台 dgx-2 极大地促进了数据预处理和训练语言模型的进步。
人工智能音乐数据集
计算音乐数据集有两大类。一种方法涉及对表示为纯音频( wav 文件或 mp3 )的音乐进行训练。第二种方法不适用于纯音频。相反,您可以将任何类似于乐谱的内容映射到标记表示。
通常,这需要标记哪个音符开始( c 、 d 、 e 、 f 、 g ),经过多少时间(例如四分之一音符或八分之一音符),以及哪个音符结束。在研究和应用中, midi 文件已被证明是丰富的音乐素材来源。 midi 标准被设计用于电子存储音乐信息。
这些实验使用了几组 midi 文件,包括:
js fake chorales dataset 有 500 首 j.s.巴赫风格的假合唱
运行 midi 数据库 以及其干净的子集(分别为 176k 和 15k midi 文件),混合了各种类型和风格
metamidi 数据集 具有 463k midi 文件,同样具有不同的类型和风格
midi 格式是非人类可读的音乐表示,为了训练因果语言模型,必须将其映射到可读的标记表示。对于此表示,我们从 mmmtrack 编码 。
这种编码将音乐片段表示为层次结构。一段音乐由不同乐器的不同曲目组成:例如鼓、吉他、贝司和钢琴。每个轨道由几个条组成( 4 、 8 或 16 条,取决于使用情况)。每个条都包含一系列音符开启、时间增量和音符关闭事件。尽管这种层次结构可以被视为一棵树,但可以将所有内容编码为一个线性序列,使其成为仅用于解码器的语言模型的理想表示。
下面的例子是一首四部分的合唱,以钢琴卷的形式呈现。合唱团有四种声音:女高音、中音、男高音和低音。女高音和女低音是女声,男高音和男低音是男声。通常,四种声音同时演唱,但音调不同。
图 1 显示了带有音调颜色编码的语音。女高音为绿色,中音为橙色,男高音为蓝色,低音为红色。您可以将这些具有时间和音调维度的音乐事件编码为一系列符号。
图 1.使用音高颜色编码可视化生成的音乐标记示例
在 mmmtrack 编码之后,低音部分将映射到以下令牌表示:
piece_start track_start inst=bass bar_start note_on=61 time_delta=4 note_off=61 note_on=59 time_delta=2 note_off=59 note_on=58 time_delta=2 note_off=58 note_on=56 time_delta=4 note_off=56 note_on=54 time_delta=4 note_off=54 bar_end bar_start note_on=59 time_delta=2 note_off=59 note_on=58 time_delta=2 note_off=58 note_on=56 time_delta=4 note_off=56 note_on=58 time_delta=4 note_off=58 note_on=59 time_delta=4 note_off=59 bar_end bar_start note_on=58 time_delta=4 note_off=58 note_on=59 time_delta=2 note_off=59 note_on=61 time_delta=2 note_off=61 note_on=63 time_delta=2 note_off=63 note_on=52 time_delta=2 note_off=52 note_on=54 time_delta=4 note_off=54 bar_end bar_start note_on=47 time_delta=4 note_off=47 note_on=49 time_delta=2 note_off=49 note_on=51 time_delta=2 note_off=51 note_on=52 time_delta=2 note_off=52 note_on=54 time_delta=2 note_off=54 note_on=56 time_delta=4 note_off=56 bar_end track_end track_start inst=tenor … 只要稍加练习,人类就能阅读和理解这种表示。表示以piece_start开始,表示一段音乐的开始。track_start表示音轨(或乐器或语音)的开始,而track_end表示音尾。inst=bass标记表示此曲目包含低音。其他声音以相同的方式表示。bar_start和bar_end分别表示条形图的开始和结束。note_on=61是音调为 61 的音符的开头。
在钢琴上,这将是音符 c # 5 。time_delta=4意味着将经过四个十六分音符的持续时间。那将是一张四分之一的钞票。之后,音符将结束,由note_off=61表示。等等等等。在这一点上,这种记法也允许复调。几个音轨将同时发出音符,每个音轨可以有平行的音符。这使得编码具有通用性。
每段音乐的小节数不同。很可能对整个歌曲进行编码将需要较长的序列长度,从而使相应 transformer 的训练在计算上非常昂贵。这些实验将大多数数据集编码为四条,少数编码为八条。 16 巴的实验正在进行中。此外,仅使用 4 / 4 计时表中的音乐。这涵盖了西方音乐的大部分。其他节拍,如 3 / 4 (华尔兹)可以作为未来工作的主题。
这一系列不同的实验将许多 midi 数据集映射到所描述的令牌格式。整个过程中使用了相同的预处理器。一旦预处理器处理小数据集,它立即处理大数据集。
处理时间取决于要编码的 midi 文件的数量,从几分钟到几小时不等。 dgx-2 在所有 96 cpu 上并行运行,最长的预处理时间为 30 小时。据估计,这将需要在最先进的 macbook pro 上进行大约 10-14 天的处理。
图 2.用于训练 gpt 模型的音乐数据集
对 midi 文件的数据集进行编码将产生令牌文件的集合。这些标记文件的大小取决于 midi 文件的数量和条形图的数量。考虑一些实验数据集及其编码数据集大小:
js fake chorales 数据集: 14 mb ,每个样本有四个条
lakh midi 数据集: 72 gb ,其干净子集为 19 gb ,每个样本有四个小节
metamidi 数据集:每个样本 130 gb , 4 个小节, 230 gb , 8 个小节
你可以想象,在 14 mb 的 js 假合唱团上训练只需要几个小时。在 130 gb 的 metamidi 数据集上进行训练需要很多天。这些实验的训练持续了 10 至 15 天。
模型训练
许多模型使用 huggingface gpt-2 实现进行了训练。一些模型在 gpt-2 模式下使用 nvidia megatron lm 进行了训练。
使用 huggingface 进行的训练归结为将数据集上传到 dgx-2 ,然后运行包含所有功能的训练脚本,包括模型和训练参数。使用了相同的脚本,只是对所有数据集进行了一些更改。这只是规模问题。
对于megatron lm 来说,环境设置就像拉动和运行 ngc 一样简单 pytorch docker 容器 ,然后通过 ssh 隧道进入 dgx-2 机器,立即在浏览器中使用 jupyter 笔记本。
大多数实验使用相同的 gpt-2 架构:六个解码器块和八个注意头;嵌入大小为 512 ,序列长度为 2048 。虽然这绝对不是一个大语言模型( llm ),它可以有大约 100 个解码器块,但主观评估表明,对于人工智能音乐来说,这种架构工作起来很有魅力。
使用 nvidia dgx-2 在快速迭代中确实起到了作用。在单个 gpu 上训练多天的数据集,在 dgx-2 上只训练几个小时。在单个 gpp 上训练数月的数据集在 dgx-2 中最多两周后完成训练。特别是对于数据集< 25 gb 的实验,模型收敛非常快。
一些数据集的培训时间如下:
10 个时代和大约 1.5 万首歌曲的 10 万首 midi clean 数据集耗时 15 小时
10 个时代和大约 175k 首歌曲的 lakh midi 数据集耗时 130 小时
metamidi 数据集历时 290 小时,涵盖了 9 个时代和大约 40 万首歌曲
请注意, js fake chorales 数据集是较早训练的,而不是在 dgx-2 上。由于其体积非常小,因此不需要使用 multi- gpu 设置。它甚至可以在 macbook pro 上过夜训练。
nvidia dgx-2
本节详细介绍了 nvidia dgx-2 规范。如上所述,该平台在加速数据集预处理和训练语言模型方面都非常有效。这一部分将是一个令人愉快的技术部分。
图 3.dgx-2 站
nvidia dgx-2 是一个功能强大的系统,具有 16 个完全连接的 tesla v100 32 gb gpu ,使用 nvswitch 。它能够提供 2.4 tb /秒的二等分带宽。 dgx-2 专为需要性能和可扩展性的人工智能研究人员和数据科学家设计。
对于 transformer 型号, nvidia dgx-2 能够以混合精度提供敢达 517227 个令牌/秒的吞吐量,这使其特别强大。
表 1.多 – gpu 性能表e对于 dgx-2
软件框架: nvidia megatron lm
要充分利用强大的计算功能,您需要稳定和优化的软件。使用 nvidia megatron lm 等性能优化框架,随着 gpt 模型尺寸的缩放,性能几乎呈线性缩放。有关相关信息,请参见 megatron lm :使用模型并行性训练数十亿参数语言模型 。
通过在单个 nvidia v100 32 gb gpu 上训练 12 亿个参数的模型来实现基线,该 gpu 支持 39 万亿次浮点运算。这是 dgx-2h 服务器中配置的单个 gpu 的理论峰值触发器的 30% ,因此是一个强基线。
将模型扩展到 512 gpu 上的 83 亿个参数,在整个应用程序中, 8 路模型并行度达到每秒 15.1 万亿次。与单一 gpu 情况相比,这是 76% 的缩放效率。
图 4.使用 nvidia megatron lm 扩展到数千个 gpu ,而不损失性能
通过修正seq_len,短指针,等于 4096 ,并修改训练配置,只需几次迭代即可启动训练运行,可以计算实际应用程序作业运行中实现的万亿次浮点百分比。
在本机运行后,分析了nvidia-smi和输出 nsight 配置文件。测试了不同的配置以获得最高可能的 teraflop ,如下表所示:
表 2.使用中给出的第三个方程计算万亿次浮点 使用megatron lm 在 gpu 集群上进行高效大规模语言模型训练
该表最后一行中显示的训练配置提供了 45.45% 的最高 teraflop 。
请注意,使用了 8 个 v100 32 gb gpu 而不是 16 gpu ,以缩短运行每个评测作业所需的时间。nvidia-smi 命令用于验证训练配置实现了 45.45% 的 teraflops 利用率,如下所示。
图 5.通过使用 nvidia smi 命令以交互方式监控培训性能
总结
这里介绍的人工智能音乐实验是使用 nvidia dgx-2 进行的。我们使用大小从几兆字节到 230 gb 的数据集训练语言模型。我们使用了 huggingface gpt-2 实现,并表明 nvidia megatron lm 也是一个很好的实验替代品。
nvidia dgx-2 在加速数据集预处理(将 midi 文件映射到令牌表示和训练模型)方面做出了重大贡献。这允许快速实验。 dgx-2 在训练可用的最大 midi 数据集(具有 400k 文件的 metamidi )时发挥了巨大的作用。
关于作者
tristan behrens 博士是人工智能专家、人工智能作曲家和人工智能教育家。他在成功的深度学习项目中有着广泛的记录。他最大的关注点是合成的深度神经网络。他出版了几张用电脑创作的音乐专辑。
zenodia charpy 是高级深度学习解决方案架构师,专注于应用自然语言处理和深度学习技术来应对非英语和低资源语言的挑战,例如瑞典语、丹麦语和挪威语。作为一名数据科学家,她在解决现实世界问题、构建端到端解决方案方面拥有八年的丰富经验,她既是一名内部数据科学家,也是一名数据科学顾问。在空闲时间,她喜欢在森林里散步或跑步,做瑜伽。


智能网联技术在新能源汽车上应用的重要性正在凸显
万界星空科技MES系统中的生产调度流程
智能化的耕地保护可以这样做
人工智能和机器人的区别
天地融合通信,低轨抢夺战已经打响
应用语言模型技术创作人工智能音乐
索尼新款400mm FE镜头即将推出 还未确定最大光圈为f/4还是f/2.8
LG V60 ThinQ背部面板曝光,后置摄像头为横向设计
贸泽开售具有内部电压基准的TI低功耗DACx0501 DAC
锐捷发布首款千兆无线AP产品
四种类型的MOSFET的主要区别
MAX9259EVKIT和MAX9260EVKIT的正确电源跳线设置
升压启动的变换器电路图
无线网卡有几种
Vishay推出的超小型近传感器功耗仅为6.63 µA
这么多技术框架,为什么选debezium?
交大安泰战略咨询会议系列活动举办,与华为、宁德时代等共探行业机遇
半导体 | 韦尔半导体发布针对消费类电子终端市场SiXeonTM系列硅麦克风
继我国天通一号卫星之后,马斯克星链推出直连手机业务
土壤养分速测仪提高农产品质量