机器人如何通过深度学习和大数据来编写和播放音乐?
2017年06月17日 由 yining 发表
564168
0
在美国的一家实验室里,一台马林巴演奏机器人正在编写演并奏他自己的作品。
研究人员给机器人装置了接近5000首完整的歌曲的数据,从贝多芬到甲壳虫乐队再到Lady Gaga,还包括超过200万个音乐的乐旨、乐句片段还有反复乐节。除此之外没有人类参与进作曲或是音乐的表演当中。
哲学博士Mason Bretan是一个在机器背后给予支持的人, 他与Shimon已经共事了7年之久,使它能够“听”人类演奏的音乐并且即兴创作和弦进程。现在的Shimon首次以一名独奏作曲家去创作旋律和和声,它的作品展示了音乐听起来怎样,看起来怎样。当然,这个前提是机器人使用深度网络神经去从百万个人类创作的音乐片段中学习。
Bretan即将在这个夏天取得他在乔治亚理工大学的音乐技术学位,他认为这是第一次机器人使用深度学习来创造音乐。 不同于它每天的即兴创作,当它单音调地演奏,Shimon能够弹出和声与和弦。它也同样被认为更像一名人类音乐家,因为它较少的集中于下一个音符,而是像它之前做的一样,更加集中在作品的整体结构上。
Bretan说:“在我们人类演奏或是听音乐时,我们不会考虑下一个音符是什么。” Shimon现在正在找出一个更高级别的音乐的语义学,比起考虑一个接一个的音符,它有一个更加宏大的概念是关于如何将一个整体弹奏出来。”
“这是一个在Shimon的音乐质量上的提升,因为它使用深度学习去创造一个更有结构并且连贯的作品”一所音乐学校的教师Weinberg说道。他同时也表示“我们应该探索机器人是否可以变得在音乐上有创造力,并且产生新的我们人类可以发现的美好的,启发灵感的和陌生的音乐。”
Shimon将会在未来创造出更多的作品,只要科研人员给它提供不同的数据资料,机器人将会每次创作出不一样的东西来,但是科研人员无法预测是怎样的音乐。在第一次作品中,Bretan提供给Shimon一个八分音符组成的数据,Shimon在第二次接受了一个十六分音符的旋律,这个旋律影响它去产生更快的音符序列。
Shimon以独奏作曲家的初次登台在消费电子产品展会(CES)的视讯片段中起到了重要作, 并且它将在六月底的阿斯彭创意节(AIF)上带来它的首场现场表演。