SampleRNN是一个由计算机科学家 CJ ·卡尔(CJ Carr)和扎克·祖库夫斯基(Zach Zukowski)共同开发的人工智能软件,第一次测试听起来更像是一场尖叫的演练,而不是机器学习实验。卡尔和祖库夫斯基希望他们的程序可以通过输入小块的声音来生成完整长度的黑金属和数学摇滚专辑。第一次试验包括编码和输入一些 Nirvana 无伴奏合唱。 “当它产生第一个输出时,”卡尔说,“我以为会因为我们犯的一个错误而听到沉默或噪音,或者相似的歌声。但是没有。它做的第一件事就是喊叫‘天哪’。我们互相看了看对方:‘他妈的什么?’尽管这个平台可以把 Cobain 白发苍苍的憔悴变成对上帝仁慈的奇异证明,但它却无法保持稳定的节奏,更不用说创作出连贯的歌曲了。”

人工智能已经被 Spotify 等流媒体服务应用于音乐领域,它通过扫描我们听过的歌曲,来为我们推荐我们可能喜欢的内容。但是越来越多的人要求人工智能(AI)自己作曲——这是包括 Dadabots(卡尔和祖库夫斯基)在内更多的计算机科学家面临的问题。

在过去的 30 年里,流行的、实验性的及其他方面的音乐家都在不同程度上使用人工智能。流行音乐的首席理论家布莱恩·伊诺(Brian Eno)在他最近的专辑《反射》(Reflection)中不仅用它创造了无穷无尽的新音乐,还在 2016 年的《船》(The Ship)中呈现了整个视觉体验。墨西哥作曲家伊凡·帕兹(Ivan Paz)的专辑《空间视觉》(vision of Space)的编排是由他自己设计的算法完成的。最近,作曲家 Baauer——2012 年凭借热门歌曲《哈莱姆摇摆舞》(Harlem Shake)荣登美国排行榜榜首——用 Instagram 上的化身 Lil Miquela 发布了《恨我》(Hate Me)。像这样的合成生物的下一步是自己创造音乐——也就是说,如果他们能让软件不再喊叫“天哪”。

作曲家 Baauer 在 Instagram 上的化身 Lil Miquela

第一个由计算机生成的乐谱是一首题为《Illiac Suite》的弦乐四重奏,由勒雅伦·希勒(Lejaren Hiller)于 1957 年开发,当时在古典音乐界引起了巨大的争议。当时的作曲家都非常纯粹。加利福尼亚的音乐教授 David Cope 解释说:“大多数音乐家、学者或作曲家都认为音乐创作是天赋的人类行为。”从某种意义上说,计算机程序对人类独有的创造性是一种威胁。1980 年,在经历了一场令人难以忍受的挫折之后,Cope 开始建造一台计算机,可以从用数字代码编写的数据库中读取音乐。7 年后,他创建了 Emi(音乐智能实验,发音为“Emmy”)。Cope 创作一段音乐,传递给他的工作人员,由它们将其转换成代码,供 Emi 分析。经过长时间的消化,Emi 会吐出用代码编写的全新作品,工作人员再将其转换为五线谱。Emi 不仅可以回应 Cope 的音乐,还可以由巴赫、莫扎特等人的古典音乐,演绎出一种符合他们作曲风格的作品。在此后的近 40 年里,这一方法以各种方式得到了改善。

YouTube 红人塔琳·萨瑟恩(Taryn Southern)对 Cope 的方法进行改造,制作了完全由 AI 创作的 LP。她使用一个名为 Amper 的开源人工智能平台来输入个人喜好,比如音乐类型、乐器、按键和每分钟节拍,创作了专辑《I AM AI》。Amper 是一个 AI 音乐作曲家,由电影作曲家德鲁·西尔弗斯坦(Drew Silverstein)、萨姆·埃斯蒂斯(Sam Estes)和迈克尔·霍布(Michael Hobe)创建。Amper 接受流行音乐和现代经典音乐训练,然后创作出几乎连贯的、音色一致的乐曲。音乐家可以在旋律、节奏、乐器等方面进行选择,以形成特定的变化。

YouTube 红人 Taryn Southern

萨瑟恩说她“没有传统的音乐背景”,有时会拒绝 Amper 根据她的参数创作的一首歌曲的多达 30 个版本;一旦 Amper 创造了一些她喜欢的声音,她就把它输出到 GarageBand,安排节目的内容,并添加歌词。萨瑟恩的 DIY 模式预示着未来的音乐家将在个人电脑上用人工智能来创作音乐。“作为一名艺术家,”她说,“如果你有一个进入的障碍,比如成本会阻止你做某件事,或者没有团队,那么你就可以通过自己的方式来解决问题。”她坚持低成本合作,开启了与三星(Samsung)、谷歌和 HTC 的合作关系,目前她正在研究让人工智能和虚拟现实艺术更容易接触的方法。

人工智能并不仅仅是一个有用的工具——它可以用来探索人类表达本质等重要问题。这种自我反思的冲动体现了纽约艺术科技集团 Mill 的伦理观。其创意总监拉玛·艾伦(Rama Allen)解释说:“我工作的首要主题是玩‘机器中的幽灵’的概念:幽灵是人类的灵魂,机器代表我们尝试应用的任何先进技术。我对两者之间的合作以及由此产生的意想不到的结果很感兴趣。”这是 Mill 音乐 AI 项目《See Sound》背后的中心主题。该项目于去年在奥斯汀举行的 SXSW 音乐节上首次亮相。这是一个由人声设计的高度反应性的声音雕塑节目:哼唱、唱歌或说唱,并在其色彩缤纷的界面上看到声音形成数字雕塑。从那里,艾伦和他的团队 3D 打印出了音乐的形状。这些雕塑本身,艾伦说,“就像一个指纹”。

这个项目是艾伦在现场观看了伦敦“垮掉的一代”(London beatboxer)演出后,思考机器模仿和音乐之间的相互关系时想到的。“我想,如果我能创造出一种技术,让它能够呈现我们在脑海中想象的形状,并将这个形状带到现实中,该怎么做呢?”他说,“《See Sound》是艺术家和人工智能相互学习创造新事物的最有趣的例子之一——将数据驱动输入的理念推进到人与机器之间的互惠关系中。”

拉玛·艾伦的音乐雕塑

然而,尽管艾伦、萨瑟恩和 Dadabots 代表了一种理想的和谐,但现实情况是,人工智能作为一个行业,实验者项目的乌托邦式协同效应无疑将让位于商业操纵——甚至被彻底利用。Spotify 卓越的机器学习程序向听众提供建议,公司聘请了 AI 专家弗朗索瓦·帕奇(Francois Pachet),以进一步巩固他们在这一领域的地位。Pachet 参与了索尼的 Flow Machines,这是一个用人工智能创作流行歌曲的程序。Spotify 已经被指控在播放列表中推送假艺人的作品,以逃避版税支付,但 Spotify 否认这一指控——那么他们会开始开发自己的人工智能来创作音乐吗?亚马逊的人工智能助手 Alexa 拥有一项名为 DeepMusic 的新技术,能将多层次音频样本交织在一起,以匹配用户设置的氛围。虽然这些音乐听起来太像电脑的鼓点,但亚马逊已经可以将 AI 创作的音乐传播到家庭中,这使得公司、家庭 AI 助手和创作者之间产生了一种模糊的相互作用。

像 AI Music 这样的初创公司正在开发一种工具,可以改变现有歌曲的形式,使其与播放歌曲的语境相匹配;比如开车时调高节奏,或者在慢跑时增加低音。AI 音乐作曲家 Jukedeck 的联合创始人帕特里克·斯托布斯(Patrick Stobbs)最近提到,该项目将从调整音乐转向实际合成音乐。这家总部位于伦敦的公司已经为可口可乐和谷歌等公司制作了作品。你可以想象这样一个未来:人工智不仅能创作音乐,还能制作广告、电视剧;除了越来越多的蓝领、白领 (他们的工作正被人工智能所取代),作曲家也可能面临威胁。

但使用人工智能的艺术家们坚定地认为,他们的工作旨在增强艺术家和非艺术家,而不是取代他们。“在这一点上,我们更惊讶于人类将如何利用它。”Dadabots 公司的卡尔说:“我们所做的一切都是为了与我们喜欢的乐队合作。”

人工智能辅助的未来引发了关于现有的不平等、企业主导和艺术诚信等问题:我们如何在自动化和人工智能辅助工作的世界中茁壮成长,而不会加剧持续数百年的社会和经济分裂?我们可能不会。但在最乌托邦的愿景中,音乐将成为许多人进入机器学习领域的第一次尝试,允许协作为听众、音乐家和机器提供动力。

【数字叙事 原作:Tirhakah Love;编译:Lighting】

1条评论

  1. […] 20 世纪 80 年代,在担任音乐教授的加州大学圣克鲁斯分校,大卫·科普与他的团队创建了一个音乐智能实验(Emi)。他创作音乐,然后由团队成员将其转换成代码,供 Emi 分析。经过长时间的“消化”,Emi 能生成用代码编写的全新作品,工作人员再将其转换为五线谱。Emi 不仅可以回应科普的音乐,还可以由巴赫、莫扎特等人的古典音乐,演绎出一种符合他们音乐风格的作品。 […]

    1+