当前位置: 模型材料 >> 模型材料介绍 >> 人工智能作曲wecandoit
人工智能可以作曲吗?理论上是否可行?哪种程度上可以代替人类?本期品玩知科技,邀请了知乎答主
谢圜来讲述人工智能与音乐的那些事:计算机音乐领域,是一个广阔的领域。
其主要的研究方向包括音乐识别、音乐信息处理、音乐旋律与节奏分析、音频音乐检索、音频数据挖掘与推荐、音乐情感计算、音乐结构分析、算法作曲、自动编曲、说话人识别、语音增强、音频信息安全等。
年,英伟达公司发布了AIVA人工智能作曲模型,随后迅速得到商用,广泛用于网络视频的自动配乐。也正是这时候,音乐人工智能领域进入深度学习时代,深度学习算法成为本领域在国际工业界中的核心技术,被索尼、Spotify、苹果等公司使用在其音乐产品上;字节跳动招募了大量相关人才,研发了火山小视频和抖音应用的音乐推荐、音乐搜索算法,得到广泛使用;腾讯音乐部门将音乐信息检索的算法应用在社交互动领域,使得用户获得了更好的音乐社交体验。
其中最引人注目的topic,就是自动作曲。随着这波深度学习大潮,自动作曲技术也取得了很大的进展。
音乐生成的起源
早期,莫扎特曾经创作过一首《骰子音乐》,通过丢骰子的方法自动选择小节组合:组合出来的完整音乐仍然悦耳,但是创作的过程带有一定的随机性。
一个在线的demo:MozartDiceGamemozart.vician.cz
年代,第一批计算机发明后,出现了第一批计算机音乐。最早的音乐构建了一个马尔科夫过程,使用随机模型进行生成,辅以rule-based的方法挑选符合要求的结果。
当然这类方法生成的音乐质量不高。随着机器学习的发展,算法应该从音乐材料中自动地学习出一些规律,得到自然的音乐。
两种音乐生成
人类大致有两种方法参与自动音乐生成:
自动生成。基于各种技术进行全自动音乐生成,而人类仅指定风格参数。如NVIDIA的AIVA就是一个典型的例子。辅助作曲。FlowConmposer是一个典型的例子。这里算法为人类的作曲做出建议和补充,进行共同作曲。目前大部分的算法都属于第一类方法。第二种方法在很多情况下是第一种方法的组合和变体。
一个例子
年3月21日,GoogleMagenta组贡献了一个交互式算法demo,称为BachDoodle,通过学习J.S.Bach的四重奏,算法可以由用户指定第一声部,然后自动计算给出剩余的三个声部。
(虽然很难听,但是Magenta在
转载请注明:http://www.aideyishus.com/lkyy/1984.html