CN107993636A - 基于递归神经网络的乐谱建模与生成方法 - Google Patents
基于递归神经网络的乐谱建模与生成方法 Download PDFInfo
- Publication number
- CN107993636A CN107993636A CN201711059901.8A CN201711059901A CN107993636A CN 107993636 A CN107993636 A CN 107993636A CN 201711059901 A CN201711059901 A CN 201711059901A CN 107993636 A CN107993636 A CN 107993636A
- Authority
- CN
- China
- Prior art keywords
- music
- abc
- music score
- rnn
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明属于人工智能、数据挖掘和机器翻译领域,为提出一种自动化音乐创作方法,能够有效克服传统音乐创作方法中自动对乐谱进行建模与生成时发生的乐谱格式的错乱、节奏与标注的不一致及旋律的不恰当等问题。本发明,基于递归神经网络的乐谱建模与生成方法,步骤如下:步骤一:调研乐谱的电子表达形式,选择最适用于电子乐谱建模与生成的表达形式;步骤二:构建用于ABC格式电子乐谱建模与生成的递归神经网络模型;步骤四:生成从音乐角度和文法角度都满足要求的ABC格式乐谱;步骤五:比较分析两个模型在乐谱建模学习能力与生成效果上的差别。本发明主要应用于自动化音乐创作场合。
Description
技术领域
本发明属于人工智能、数据挖掘和机器翻译领域,涉及自动化音乐创作技术,尤其是一种基于深度神经网络的乐谱建模与生成方法。
背景技术
根据算法的结构和处理数据方法的不同,自动化音乐创作方式通常可以分为以下八个类别:
1.翻译模型:将已有非音乐媒介信息“翻译”成为声音的音乐合成方法。
2.数学模型:基于数学公式和随机事件的生成方法来进行音乐创作。
3.基于知识的***:从特定音乐流派中提取音乐特征并创建相似音乐作品。
4.语法模型:根据音乐的特殊语法构造易于理解的音乐片段。
5.演化方法:一种基于遗传算法的自动谱曲方法。通过突变和自然选择这两种演化过程,各种解决方案朝着最恰当的音乐片段表现形式不断演化。
6.演化发育方法:将演化方法与发育过程结合而成的一种方法。
7.混合***法:混合不同算法来综合各算法的长处和减少各自的缺陷。
上述方法尽管能够获得简单的、易于理解的音乐曲段和整个音乐结构,但是计算复杂度高、易出错,且不能很好的探索音乐的创作过程。随着深度学习在各科学领域取得的巨大成功,基于深度神经网络的自动乐谱建模和生成方法开始受到人们极大关注。
8.***学习法:***不需要知道正在处理音乐的流派等先验知识,而是通过算法从样例素材中自动收集和学习信息,并生成与样例音乐类似的音乐曲段。
近年来,人们关于结合深度神经网络的***学习法提出了很多改进方法。其中,马尔科夫模型、演化算法的融入虽然可以很好的按照正确的音乐结构来生成旋律,但其生成的旋律过于简单;具有长短时记忆(Long Short-Term Memory,LSTM)单元的递归神经网络(Recurrent Neural Network,RNN)虽然能够很好的生成音乐,但由于研究中将乐谱进行类似分词的操作打破了原有的乐谱格式,使得生成的乐谱在音符与音符之间失去了联系,即丧失了乐谱原有的复杂特征。
发明内容
为克服现有技术的不足,本发明旨在提出一种自动化音乐创作方法,能够有效克服传统音乐创作方法中自动对乐谱进行建模与生成时发生的乐谱格式的错乱、节奏与标注的不一致及旋律的不恰当等问题。本发明采用的技术方案是,基于递归神经网络的乐谱建模与生成方法,步骤如下:
步骤一:调研乐谱的电子表达形式,选择最适用于电子乐谱建模与生成的表达形式;
步骤二:获取大量规范的ABC格式的电子乐谱资源,并对数据做相应简化规整等预处理;
步骤三:在具有长短时记忆单元的递归神经网络的基础上,将网络深层化,并融入关注度模型、丢弃层和嵌入层三个目前流行的用于辅助优化递归神经网络的方法,构建用于ABC格式电子乐谱建模与生成的递归神经网络模型;
步骤四:将处理后的数据分别应用到本发明的ABC-RNN(the RNN to generateABC formatmusic)模型和目前流行的Folk-RNN(the RNN to generate Folk stylemusic)模型中进行同等规模的训练,使其准确学习不同的音乐结构和电子乐谱的ABC格式规范,生成从音乐角度和文法角度都满足要求的ABC格式乐谱;
步骤五:比较两个模型在使用同一训练集进行相同次数训练后的网络在验证集和测试集上的平均损失值,以及训练后生成的ABC格式电子乐谱的效果,分析两个模型在乐谱建模学习能力与生成效果上的差别;
测试与验证步骤,在相同数据集的情况下,测试ABC-RNN模型与Folk-RNN模型下ABC格式电子乐谱建模的准确度与乐谱生成的效果;
同时,使用以上两种模型在训练集、验证集和测试集上的平均损失值作为模型学习能力的评价标准,其中,损失函数如下公式(1)所示:
其中,ptargeti表示输出的概率向量,其代表的是目标字符targeti的概率,N表示目标字符的个数,损失值loss的值越小越好;
另一方面,采用比较生成乐谱脚本是否能够顺利转化为规范乐谱的方式来评价生成乐谱的可靠性与健壮性。
一个实例中的具体步骤是:
步骤S0101:首先选择乐谱的电子表达形式:确定采用ABC格式的乐谱;
步骤S0201:从网络资源获取一定数目的ABC格式的电子乐谱,并将其前面的包括作者信息、曲谱序号、乐谱来源以及乐曲类别信息的标志做相应处理,形成极简且有效完整的实验数据;
步骤S0301:构建用于ABC格式电子乐谱建模与生成的递归神经网络ABC-RNN模型,该模型除了加入长短时记忆单元之外,也加入了丢弃层、嵌入层以及关注度模型三个用来优化递归神经网络的方法,形成学习能力更健壮的神经网络;
步骤S0401:设计ABC-RNN网络的初始参数与损失函数,并选择对网络参数更新调优的优化方案,实行反向传播网络来完成梯度修剪,构建精确完整的ABC-RNN模型,并利用处理过的数据在其之上做大规模的训练;
步骤S0501:对比ABC-RNN模型和Folk-RNN模型的建模学习能力和乐谱生成质量,分析本发明提出的乐谱建模与生成方法的可行性与高效性。
本发明的特点及有益效果是:
本发明的ABC-RNN模型在递归神经网络中加入了擅于处理时序问题的长短时记忆单元,可以协助长短时记忆网络更好地识别不同类型的上下文元素的关注度模型,能够解决网络中经常存在的过拟合问题的丢弃层以及使输入数据得到更好的向量表现的嵌入层。上述网络的加入使得ABC-RNN模型比其他现有技术有更健壮的乐谱建模能力与更优秀的乐谱生成效果。
附图说明:
图1整体示意图。
图2ABC-RNN和Folk-RNN的损失值比较图。
图3ABC-RNN模型和Folk-RNN模型生成曲谱质量比较图。
具体实施方式
本发明提出一种用于ABC格式电子乐谱建模与生成的递归神经网络(ABC-RNN)模型的算法方案。ABC格式是一种使用字母A到G来表示给定音符的简写形式的乐谱。包含以下步骤:
步骤一:调研乐谱的电子表达形式,选择最适用于电子乐谱建模与生成的表达形式。总结目前最为流行的三种形式:MIDI(Musical Instrument Digital Interface,乐器数字接口)格式、MusicXML(Music Extensible Markup Language,音乐扩展标记语言)格式和ABC(一种使用字母A到G来表示给定音符的简写形式的乐谱)格式在乐谱建模和生成应用中的优缺点,从中选择能够完整表达乐曲内容且性能最优的电子表达形式。
步骤二:获取大量规范的ABC格式的电子乐谱资源,并对数据做相应简化规整等预处理。
步骤三:在具有长短时记忆单元的递归神经网络的基础上,将网络深层化,并融入关注度模型、丢弃层和嵌入层三个目前流行的用于辅助优化递归神经网络的方法,构建用于ABC格式电子乐谱建模与生成的递归神经网络模型。
步骤四:将处理后的数据分别应用到本发明的ABC-RNN模型和目前流行的Folk-RNN模型中进行同等规模的训练,使其准确学习不同的音乐结构和电子乐谱的ABC格式规范,生成从音乐角度和文法角度都满足要求的ABC格式乐谱。
步骤五:比较两个模型在使用同一训练集进行相同次数训练后的网络在验证集和测试集上的平均损失值,以及训练后生成的ABC格式电子乐谱的效果,分析两个模型在乐谱建模学习能力与生成效果上的差别。
实验在相同数据集的情况下,测试ABC-RNN模型与Folk-RNN模型下ABC格式电子乐谱建模的准确度与乐谱生成的效果。
同时,本发明一方面使用以上两种模型在训练集、验证集和测试集上的平均损失值作为模型学习能力的评价标准。其中,损失函数如下公式(1)所示:
其中,表示输出的概率向量代表的是目标字符targeti的概率,loss的值越小越好。
另一方面,为了更加客观的判断出生成乐谱的质量好坏,本发明采用比较生成乐谱脚本是否能够顺利转化为规范乐谱的方式来评价生成乐谱的可靠性与健壮性。
实验结果表明,在经过相同规模的训练后,本发明的ABC-RNN模型相比流行的Folk-RNN模型损失值更小,不仅如此,ABC-RNN模型在验证集和测试集上也具有更加优秀的表现。因此可以说明本发明提出的ABC-RNN模型能够显著地优于Folk-RNN模型,可以更好地对ABC格式的电子乐谱进行建模学习。
另外,通过比较以上两个模型生成的电子乐谱效果,统计其中不满足ABC格式规范的个数,对生成乐谱错误加以比较和分析得到ABC-RNN模型生成的ABC格式电子乐谱效果远远胜于Folk-RNN模型。
本发明的ABC-RNN模型在递归神经网络中加入了擅于处理时序问题的长短时记忆单元,可以协助长短时记忆网络更好地识别不同类型的上下文元素的关注度模型,能够解决网络中经常存在的过拟合问题的丢弃层以及使输入数据得到更好的向量表现的嵌入层。上述网络的加入使得ABC-RNN模型比其他现有技术有更健壮的乐谱建模能力与更优秀的乐谱生成效果。
表1 ABC-RNN和Folk-RNN的损失值表
在图2和表1中,通过比较可知在训练后,ABC-RNN模型相比Folk-RNN具有更低的损失值,且在训练集、验证集、测试集上,ABC-RNN的损失情况分别优于Folk-RNN约9.041%、10.62%、8.159%。这说明,ABC-RNN模型能够显著地优于Folk-RNN模型,并且可以更好地对ABC格式的电子乐谱进行建模学习。
表2 ABC-RNN和Folk-RNN的生成乐谱质量比较表
在图3和表2中,在各自生成的50首乐谱中,ABC-RNN的正确乐谱数达到了43首,而Folk-RNN的正确乐谱数仅有27首。除此之外,ABC-RNN较Folk-RNN的错误种类相对少一些,且其出现的错误乐谱的数量也显著少于后者,而ABC-RNN所犯的错误,如缺音或多音、少量多余符号、反复记号错误,都是由一个或两个字符生成失误所导致的,并没有出现如Folk-RNN中发生的乱码这样严重的生成错误。由此可见,利用ABC-RNN网络训练生成的ABC格式电子乐谱在准确度、规范性等条件上都优于Folk-RNN模型。
本发明提供了一种基于递归神经网络的乐谱建模与生成方法,如图1所示,为本发明的递归神经网络模型的整体示意图,包括:
步骤S0101:首先选择乐谱的电子表达形式。在此过程中,本发明比较了MusicXML格式、MIDI格式和ABC格式在乐谱建模与生成过程中的优缺点。依据格式规范简练、内容完整、计算复杂度低等因素的考量,最终本发明确定采用ABC格式的乐谱进行实验。
步骤S0201:从网络资源获取一定数目的ABC格式的电子乐谱,并将其前面的作者信息、曲谱序号、乐谱来源以及乐曲类别信息等标志做相应处理,形成极简且有效完整的实验数据。
步骤S0301:构建用于ABC格式电子乐谱建模与生成的递归神经网络(ABC-RNN)模型,该模型除了加入长短时记忆单元之外,也加入了丢弃层、嵌入层以及关注度模型三个可用来优化递归神经网络的方法,形成学习能力更健壮的神经网络。
步骤S0401:设计ABC-RNN网络的初始参数与损失函数,并选择对网络参数更新调优的优化方案,实行反向传播网络来完成梯度修剪,构建精确完整的ABC-RNN模型,并利用处理过的数据在其之上做大规模的训练。
步骤S0501:对比ABC-RNN模型和Folk-RNN模型的建模学习能力和乐谱生成质量,分析本发明提出的乐谱建模与生成方法的可行性与高效性。
本发明引进深度神经网络中的长短时记忆单元和关注度模型、丢弃层、嵌入层,为用户创造从音乐角度和文法角度都满足要求的新音乐提供了帮助,为深度神经网络在音乐的自动化创作上提供了新的思路。
Claims (3)
1.一种基于递归神经网络的乐谱建模与生成方法,其特征是,步骤如下:
步骤一:调研乐谱的电子表达形式,选择最适用于电子乐谱建模与生成的表达形式;
步骤二:获取大量规范的ABC格式的电子乐谱资源,并对数据做相应简化规整等预处理;
步骤三:在具有长短时记忆单元的递归神经网络的基础上,将网络深层化,并融入关注度模型、丢弃层和嵌入层三个用于辅助优化递归神经网络的方法,构建用于ABC格式电子乐谱建模与生成的递归神经网络模型;
步骤四:将处理后的数据分别应用到ABC-RNN(the RNN to generate ABC formatmusic)模型和目前流行的Folk-RNN(the RNN to generate Folk style music)模型中进行同等规模的训练,使其准确学习不同的音乐结构和电子乐谱的ABC格式规范,生成从音乐角度和文法角度都满足要求的ABC格式乐谱;
步骤五:比较两个模型在使用同一训练集进行相同次数训练后的网络在验证集和测试集上的平均损失值,以及训练后生成的ABC格式电子乐谱的效果,分析两个模型在乐谱建模学习能力与生成效果上的差别。
2.如权利要求1所述的基于递归神经网络的乐谱建模与生成方法,其特征是,测试与验证步骤,在相同数据集的情况下,测试ABC-RNN模型与Folk-RNN模型下ABC格式电子乐谱建模的准确度与乐谱生成的效果;
同时,使用以上两种模型在训练集、验证集和测试集上的平均损失值作为模型学习能力的评价标准,其中,损失函数如下公式(1)所示:
(1)
其中,表示输出的概率向量,其代表的是目标字符targeti的概率,N表示目标字符的个数,损失值loss的值越小越好;
另一方面,采用比较生成乐谱脚本是否能够顺利转化为规范乐谱的方式来评价生成乐谱的可靠性与健壮性。
3.如权利要求1所述的基于递归神经网络的乐谱建模与生成方法,其特征是,一个实例中的具体步骤是:
步骤S0101:首先选择乐谱的电子表达形式:确定采用ABC格式的乐谱;
步骤S0201:从网络资源获取一定数目的ABC格式的电子乐谱,并将其前面的包括作者信息、曲谱序号、乐谱来源以及乐曲类别信息的标志做相应处理,形成极简且有效完整的实验数据;
步骤S0301:构建用于ABC格式电子乐谱建模与生成的递归神经网络ABC-RNN模型,该模型除了加入长短时记忆单元之外,也加入了丢弃层、嵌入层以及关注度模型三个用来优化递归神经网络的方法,形成学习能力更健壮的神经网络;
步骤S0401:设计ABC-RNN网络的初始参数与损失函数,并选择对网络参数更新调优的优化方案,实行反向传播网络来完成梯度修剪,构建精确完整的ABC-RNN模型,并利用处理过的数据在其之上做大规模的训练;
步骤S0501:对比ABC-RNN模型和Folk-RNN模型的建模学习能力和乐谱生成质量,分析本发明提出的乐谱建模与生成方法的可行性与高效性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711059901.8A CN107993636B (zh) | 2017-11-01 | 2017-11-01 | 基于递归神经网络的乐谱建模与生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711059901.8A CN107993636B (zh) | 2017-11-01 | 2017-11-01 | 基于递归神经网络的乐谱建模与生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107993636A true CN107993636A (zh) | 2018-05-04 |
CN107993636B CN107993636B (zh) | 2021-12-31 |
Family
ID=62030554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711059901.8A Active CN107993636B (zh) | 2017-11-01 | 2017-11-01 | 基于递归神经网络的乐谱建模与生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107993636B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109448684A (zh) * | 2018-11-12 | 2019-03-08 | 量子云未来(北京)信息科技有限公司 | 一种智能编曲方法和*** |
CN110162659A (zh) * | 2019-05-27 | 2019-08-23 | 湖南工程学院 | 一种基于音高网络的定节奏新曲生成方法 |
CN110164412A (zh) * | 2019-04-26 | 2019-08-23 | 吉林大学珠海学院 | 一种基于lstm的音乐自动合成方法及*** |
WO2019232959A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 基于人工智能的作曲方法、***、计算机设备和存储介质 |
CN113707112A (zh) * | 2021-08-13 | 2021-11-26 | 陕西师范大学 | 基于层标准化的递归跳跃连接深度学习音乐自动生成方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217729A (zh) * | 2013-05-31 | 2014-12-17 | 杜比实验室特许公司 | 音频处理方法和音频处理装置以及训练方法 |
CN104538028A (zh) * | 2014-12-25 | 2015-04-22 | 清华大学 | 一种基于深度长短期记忆循环神经网络的连续语音识别方法 |
CN104700828A (zh) * | 2015-03-19 | 2015-06-10 | 清华大学 | 基于选择性注意原理的深度长短期记忆循环神经网络声学模型的构建方法 |
CN104952448A (zh) * | 2015-05-04 | 2015-09-30 | 张爱英 | 一种双向长短时记忆递归神经网络的特征增强方法及*** |
US20160005391A1 (en) * | 2014-07-03 | 2016-01-07 | Google Inc. | Devices and Methods for Use of Phase Information in Speech Processing Systems |
US9263036B1 (en) * | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
CN106328122A (zh) * | 2016-08-19 | 2017-01-11 | 深圳市唯特视科技有限公司 | 一种利用长短期记忆模型递归神经网络的语音识别方法 |
CN106598948A (zh) * | 2016-12-19 | 2017-04-26 | 杭州语忆科技有限公司 | 基于长短期记忆神经网络结合自动编码器的情绪识别方法 |
CN106653056A (zh) * | 2016-11-16 | 2017-05-10 | 中国科学院自动化研究所 | 基于lstm循环神经网络的基频提取模型及训练方法 |
CN106898341A (zh) * | 2017-01-04 | 2017-06-27 | 清华大学 | 一种基于共同语义空间的个性化音乐生成方法及装置 |
CN107293288A (zh) * | 2017-06-09 | 2017-10-24 | 清华大学 | 一种残差长短期记忆循环神经网络的声学模型建模方法 |
CN107301864A (zh) * | 2017-08-16 | 2017-10-27 | 重庆邮电大学 | 一种基于Maxout神经元的深度双向LSTM声学模型 |
-
2017
- 2017-11-01 CN CN201711059901.8A patent/CN107993636B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9263036B1 (en) * | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
CN104217729A (zh) * | 2013-05-31 | 2014-12-17 | 杜比实验室特许公司 | 音频处理方法和音频处理装置以及训练方法 |
US20160005391A1 (en) * | 2014-07-03 | 2016-01-07 | Google Inc. | Devices and Methods for Use of Phase Information in Speech Processing Systems |
CN104538028A (zh) * | 2014-12-25 | 2015-04-22 | 清华大学 | 一种基于深度长短期记忆循环神经网络的连续语音识别方法 |
CN104700828A (zh) * | 2015-03-19 | 2015-06-10 | 清华大学 | 基于选择性注意原理的深度长短期记忆循环神经网络声学模型的构建方法 |
CN104952448A (zh) * | 2015-05-04 | 2015-09-30 | 张爱英 | 一种双向长短时记忆递归神经网络的特征增强方法及*** |
CN106328122A (zh) * | 2016-08-19 | 2017-01-11 | 深圳市唯特视科技有限公司 | 一种利用长短期记忆模型递归神经网络的语音识别方法 |
CN106653056A (zh) * | 2016-11-16 | 2017-05-10 | 中国科学院自动化研究所 | 基于lstm循环神经网络的基频提取模型及训练方法 |
CN106598948A (zh) * | 2016-12-19 | 2017-04-26 | 杭州语忆科技有限公司 | 基于长短期记忆神经网络结合自动编码器的情绪识别方法 |
CN106898341A (zh) * | 2017-01-04 | 2017-06-27 | 清华大学 | 一种基于共同语义空间的个性化音乐生成方法及装置 |
CN107293288A (zh) * | 2017-06-09 | 2017-10-24 | 清华大学 | 一种残差长短期记忆循环神经网络的声学模型建模方法 |
CN107301864A (zh) * | 2017-08-16 | 2017-10-27 | 重庆邮电大学 | 一种基于Maxout神经元的深度双向LSTM声学模型 |
Non-Patent Citations (2)
Title |
---|
J.DAI,ETC: "Long short-term memory recurrent neural network based segment features for music genre classification", 《2016 10TH INTERNATIONAL SYMPOSIUM ON CHINESE SPOKEN LANGUAGE PROCESSING (ISCSL)》 * |
王程 等: "面向自动音乐生成的深度递归神经网络方法", 《小型微型计算机***》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019232959A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 基于人工智能的作曲方法、***、计算机设备和存储介质 |
CN109448684A (zh) * | 2018-11-12 | 2019-03-08 | 量子云未来(北京)信息科技有限公司 | 一种智能编曲方法和*** |
CN109448684B (zh) * | 2018-11-12 | 2023-11-17 | 合肥科拉斯特网络科技有限公司 | 一种智能编曲方法和*** |
CN110164412A (zh) * | 2019-04-26 | 2019-08-23 | 吉林大学珠海学院 | 一种基于lstm的音乐自动合成方法及*** |
CN110162659A (zh) * | 2019-05-27 | 2019-08-23 | 湖南工程学院 | 一种基于音高网络的定节奏新曲生成方法 |
CN110162659B (zh) * | 2019-05-27 | 2020-09-15 | 湖南工程学院 | 一种基于音高网络的定节奏新曲生成方法 |
CN113707112A (zh) * | 2021-08-13 | 2021-11-26 | 陕西师范大学 | 基于层标准化的递归跳跃连接深度学习音乐自动生成方法 |
CN113707112B (zh) * | 2021-08-13 | 2024-05-28 | 陕西师范大学 | 基于层标准化的递归跳跃连接深度学习音乐自动生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107993636B (zh) | 2021-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107993636A (zh) | 基于递归神经网络的乐谱建模与生成方法 | |
CN108009285B (zh) | 基于自然语言处理的林业生态环境人机交互方法 | |
CN103823867B (zh) | 一种基于音符建模的哼唱式音乐检索方法及*** | |
CN108287858A (zh) | 自然语言的语义提取方法及装置 | |
CN109271506A (zh) | 一种基于深度学习的电力通信领域知识图谱问答***的构建方法 | |
CN108197294A (zh) | 一种基于深度学习的文本自动生成方法 | |
CN110097085A (zh) | 歌词文本生成方法、训练方法、装置、服务器及存储介质 | |
CN109885824A (zh) | 一种层次的中文命名实体识别方法、装置及可读存储介质 | |
CN105631468A (zh) | 一种基于rnn的图片描述自动生成方法 | |
CN109902159A (zh) | 一种基于自然语言处理的智能运维语句相似度匹配方法 | |
CN106992001A (zh) | 语音指令的处理方法、装置和*** | |
CN109992673A (zh) | 一种知识图谱生成方法、装置、设备及可读存储介质 | |
CN106897254A (zh) | 一种网络表示学习方法 | |
CN104978884A (zh) | 一种学前教育专业学生学习乐理视唱练耳课程的教学*** | |
CN106897559A (zh) | 一种面向多数据源的症状体征类实体识别方法及装置 | |
CN103824565A (zh) | 一种基于音符和时值建模的哼唱识谱方法及*** | |
CN108038205A (zh) | 针对中文微博的观点分析原型*** | |
CN110853604A (zh) | 基于变分自编码器的具有特定地域风格的中国民歌自动生成方法 | |
CN109815336A (zh) | 一种文本聚合方法及*** | |
CN107452379A (zh) | 一种方言语言的识别技术及虚拟现实教学方法和*** | |
CN110223675A (zh) | 用于语音识别的训练文本数据的筛选方法及*** | |
CN110010136A (zh) | 韵律预测模型的训练和文本分析方法、装置、介质和设备 | |
CN109326280A (zh) | 一种歌唱合成方法及装置、电子设备 | |
CN110335594A (zh) | 基于多示例学习的自动语音识别困难样本挖掘方法 | |
CN111079018A (zh) | 习题个性化推荐方法、装置、设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |