见识过「听歌识曲」,体验过看弹奏动作识曲吗?
就像最近的一档综艺节目中,郎朗比划了几个弹钢琴的动作,他媳妇(吉娜·爱丽丝)秒答:《柴可夫斯基第一协奏曲》!
来自华盛顿大学的研究团队提出了一种新方法Audeo,就解锁如此神奇的操作——仅仅根据钢琴师弹奏时的动作,就能直接复现原声音乐。
先来体验下这种神奇的感觉。
下面便是钢琴师演奏时的动图,我们能看到的,仅仅就是手指在钢琴键盘上的变换。
然后,你知道这是哪首曲子吗?
大部分人(或许郎朗级别的大神们可以)应该是猜不到的。
但AI可以,下面便是这项技术复现的原声音乐。
那么,这般神奇的操作是怎么实现的呢?
三步实现「看动作识音乐」
简单来说,Audeo方法主要包括三大步骤,分别是:
- 钢琴按键检测
- 生成乐谱内容
- 合成音乐
钢琴按键检测
这个步骤可以理解为一个多标签(multi一label )分类问题。
输入是弹钢琴视频中5个连续的帧,将它们输入到Video2Roll Net中,经过ResNet18、特征变换、特征细化(refinement)和相关学习的处理,最后输出中间帧的按键预测。
值得注意的是,在这个步骤中,研究人员没有直接使用ResNet18,而是在此基础上做了算法改良,提出了Video2Roll Net。
这样做的原因很简单,就是ResNet18检测到的「精度」不够细致,下面2张热力图的对比,便一目了然地展示了2种方法的效果。
生成乐谱内容
在第二个步骤中,就需要将 Roll 转换为 Midi(乐器数字接口),以便合成音乐。
但在上步生成出来的 roll ,没办法直接转换成 Midi,一个至关重要的原因就是—— Roll 不包含时间信息。
此外,由于 Midi 比较依赖音频流,所以经常出现的一个现象就是:演奏者按一个钢琴键的时间较长时,相应频率的幅度会逐渐衰减为零,也就是在 Midi 中会被标记为零。
像下面这张图中显示的那样,就会造成不匹配的现象。
并且,研究人员表示:
这种不匹配的现象,是经常发生的。
于是,研究人员便提出了一个叫 Roll2Midi Net的方法解决了这个问题。
主要是在二者之间加入了一个生成对抗网络(GAN),来调节并解决上述问题。
合成音乐
最后一步,就是根据调节好的 Midi 来生成音乐,主要过程如下图所示。
将 Midi 作为输入,经过一个上采样,而后可以选择通过「Midi 合成器软件」,也可以选择使用「PerfNet+Unet+GriffinLim」的组合方式来生成音乐。
至于 Audeo 方法与其它方法的定量比较,主要集中在第二个核心步骤。
可以明显看到,研究人员在第二步骤中提出来的 Roll2Midi Net方法,在各项评测指标中,都具有一定优势。
合成音乐还可以转换成别的乐器
当然,Audeo 除了精准复现视频中的钢琴音乐外,还有一个更有意思的玩法。
它可以将钢琴原声,转换成其他乐器的声音。
例如,可以将钢琴音乐转换成吉他的声音。
还可以将钢琴音乐转换成日本十三弦古筝的声音。
这个有趣的玩法,主要得益于「合成音乐」这个步骤,选择的方法不同,得到的结果便不同。
研究团队
这项研究由华盛顿大学的三位研究人员共同完成,研究还入围了本届CVPR。
△从左至右:Kun Su、Xiulong Liu和Eli Shlizerman
论文一作是Kun Su,本科就读于美国纽约州伦斯勒理工大学(RPI),目前在华盛顿大学攻读电子与计算机工程系攻读硕士。
△Kun Su
研究的另一位作者是Xiulong Liu,本科在上交大就读,硕士毕业于华盛顿大学,目前在OneClick.ai 担任数据科学家。
△Xiulong Liu
论文最后一位作者是Eli Shlizerman,华盛顿大学应用数学及电子与计算机工程助理教授。
目前专攻生物神经网络和人工神经网络的基本特性,通过结合时空数据分析、机器学习和动力系统理论的方法将这两个系统联系起来。
△Eli Shlizerman
那么问题来了,如果以郎朗的手速弹奏钢琴,这个AI的效果还会如此惊艳吗?
传送门:
论文地址:
https://arxiv.org/abs/2006.14348
“