CN102640211A - 根据与节奏模式的相似度搜索乐音数据组 - Google Patents
根据与节奏模式的相似度搜索乐音数据组 Download PDFInfo
- Publication number
- CN102640211A CN102640211A CN2011800038408A CN201180003840A CN102640211A CN 102640211 A CN102640211 A CN 102640211A CN 2011800038408 A CN2011800038408 A CN 2011800038408A CN 201180003840 A CN201180003840 A CN 201180003840A CN 102640211 A CN102640211 A CN 102640211A
- Authority
- CN
- China
- Prior art keywords
- rhythm pattern
- rhythm
- pattern
- input
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/071—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/341—Rhythm pattern selection, synthesis or composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/341—Rhythm pattern selection, synthesis or composition
- G10H2210/361—Selection among a set of pre-established rhythm patterns
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明的一个目的是提供用于搜索满足以与用户期望的节奏模式的相似度的预定条件的节奏模式构建的乐句的乐音数据组的改进技术。用户经由节奏输入装置(10)输入节奏模式。输入节奏模式存储部分(212)根据从小节线时钟输出部分(211)输出的时钟信号以及包含在输入节奏模式中的触发数据将输入节奏模式存入RAM。节奏模式搜索部分(213)在节奏DB(211)中搜索呈现与存储的输入节奏模式的最高相似度的乐音数据组。演奏处理部分(214)使声音输出部分(26)可听地输出搜出的乐音数据组。
Description
技术领域
本发明涉及用于根据与节奏模式的相似度对乐音数据组进行搜索的技术,具体地涉及利用该技术的乐音数据处理设备、乐音数据处理***、乐音数据处理方法、以及乐音数据处理程序。
背景技术
包括音频输入/输出装置的以PC(个人计算机)作为其操作核的DAW(数字音频工作站)现在已经被广泛地用作音乐制作环境。在这种DAW领域中,普遍地将必要的硬件添加到PC,并在PC上运行专用软件应用程序。例如,当经由DAW打击或输入节奏模式时,需要用户自己(他自己或她自己)从其中存储了乐音源的数据库中选择一个期望的音色、演奏部件(小鼓、踩镲(high-hat cymbal)等)、乐句等。因此,如果存储在数据库中的声音源的数量巨大,则用户要花费很多时间和精力来从数据库中查找或搜索出期望的乐音源。国际公开No.2002/047066(下文称为“专利文献1”)公开了一种技术,其响应于用户输入节奏模式来从存储器中存储的多个音乐片段数据组中搜索出与所输入的节奏模式相对应的音乐片段数据组,并且呈现所搜索出来的音乐片段数据组。此外,日本专利申请特许公开No.2006-106818(下文称为“专利文献2”)公开了一种技术,根据该技术,响应于具有ON和OFF状态的交替重复的时间序列信号的输入,搜索部分搜索并提取具有与所输入的时间序列信号相同或相似的变调模式的节奏数据,从而对所提取的节奏数据组分配了相关音乐信息(例如当前音乐片段的名称)之后将其作为搜索结果进行输出。
但是,如果利用专利文献1或专利文献2所公开的技术将要经由输入装置(例如操作板或键盘)直接输入节奏模式,则节奏模式是根据用户自己感觉到的时间经过或流逝的感觉来输入的。因此,由于用户对时间流逝感觉的偏差,输入节奏中可能出现时间误差。所以,与用户初始期望的节奏模式不同的节奏模式可能被输出作为搜索结果(例如,不同于用户初始期望的八分音符乐句(下文称为“八分乐句”)的十六分音符乐句(下文称为“十六分乐句”)可能被输出作为搜索结果),这将给用户造成不舒服的感觉和紧张。
现有技术文件列表
[专利文献]
[专利文献1]国际公开No.2002/047066
[专利文献2]日本专利申请特许公开No.2006-106818
发明内容
鉴于上述现有技术问题,本发明的一个目的是提供一种用于对以满足与用户期望节奏模式的相似度的预定条件的节奏模式构建的乐句的乐音数据组进行搜索的改进技术。
为了达到上述目的,本发明提供了一种改进的乐音数据处理设备,其包括:存储部分,其中彼此相关联地存储了乐音数据组和乐音节奏模式,每个乐音数据组代表了预定时间段内的多个声音,每个乐音节奏模式代表了所述多个声音的一系列声音产生时刻;通知部分,其不仅根据时间的过去而使时间段内的指定时刻前进,而且向用户通知指定时刻;获取部分,其根据在所述通知部分正在通知指定时刻的同时由用户所输入的操作,获取代表与用户输入的操作的模式相对应的一系列指定时刻的输入节奏模式;以及搜索部分,其搜索所述存储部分中存储的乐音数据组,以查找关联于与输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
优选地,在本发明的所述的乐音数据处理设备中,所述存储部分中与乐音节奏模式相关联地存储了根据乐音节奏模式所代表的声音产生时刻间隔确定的节奏类别。本发明的乐音数据处理设备进一步包括:确定部分,其根据输入节奏模式所代表的指定时刻之间的间隔,确定输入节奏模式所属的节奏类别;以及计算部分,其计算输入节奏模式与每个乐音节奏模式之间的距离。所述搜索部分根据输入节奏模式所属的节奏类别与乐音节奏模式所属的节奏类别之间的关系,来计算输入节奏模式与每个乐音节奏模式之间的相似度,以及由所述搜索部分识别出的乐音数据组是关联于与由所述搜索部分计算出的输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
优选地,在本发明所述的乐音数据处理设备中,所述搜索部分将代表输入节奏模式所表示的声音产生时刻的频率分布的输入时刻间隔的柱状图与代表针对每个节奏类别的所述声音产生时刻间隔在乐音节奏模式中的频率分布的节奏类别的柱状图进行比较,从而识别出呈现与输入时刻间隔柱状图的高相似性的节奏类别柱状图的特定节奏类别。由所述搜索部分所识别出的乐音数据是与包含在与识别出的节奏类别相关联的乐音节奏模式中的、与输入节奏模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组。
优选地,预定时间段包括多个时间片段,所述存储部分针对每个时间片段在其中彼此相关联地存储了乐音数据组和代表多个声音的一系列声音产生时刻的乐音节奏模式,所述计算部分计算输入节奏模式与所述存储部分中存储的每个时间片段的乐音节奏模式之间的距离,以及所述搜索部分根据输入节奏模式与所述计算部分针对每个时间片段计算的乐音节奏模式之间的的距离、输入节奏模式所属的节奏类别、和乐音节奏模式所属的节奏类别三者间的关系,来计算输入节奏模式与乐音节奏模式之间的相似度。所述搜索部分识别出的乐音数据组是关联于与计算出的输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
优选地,所述乐音数据处理设备进一步包括提供部分,其与所述通知部分对所述指定时刻的通知同步地将由所述搜索部分搜出的乐音数据组提供给可听地输出与乐音数据组对应的声音的声音输出部分。
优选地,在本发明的所述的乐音数据处理设备中,所述存储部分中与乐音数据组相关联地存储了乐音音高(pitch)模式,每个乐音音高模式代表了相应一个乐音数据组所表示的声音的一系列乐音音高。所述乐音数据处理设备进一步包括乐音音高模式获取部分,其根据所述通知部分正在通知指定时刻的同时由用户所输入的操作,获取代表一系列乐音音高的输入音高模式。所述搜索部分根据输入音高模式的各个声音与乐音音高模式的各个声音之间的乐音音高差的方差(variance),计算输入音高模式与每个乐音音高模式之间的相似度,以及所述搜索部分所识别出的乐音数据是与计算出的与输入节奏模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组。
优选地,所述存储部分在其中与乐音数据组相关联地存储了乐音速度模式,每个乐音速度模式代表了相应一个乐音数据组所表示的声音的一系列声音强度,所述乐音数据处理设备进一步包括速度模式获取部分,其根据所述通知部分正在通知指定时刻的同时由用户所输入的操作,获取代表一系列声音强度的输入速度模式。所述搜索部分根据输入速度模式的各个声音与乐音速度模式的各个声音之间的强度差异的绝对值,计算输入节奏模式与每个乐音节奏模式之间的相似度,以及所述搜索部分所识别出的乐音数据组是与计算出的与输入节奏模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组。
优选地,所述存储部分在其中与乐音数据组相关联地存储了乐音持续时间模式,每个乐音持续时间模式代表了相应一个乐音数据组所表示的声音的一系列声音持续时间,所述乐音数据处理设备进一步包括持续时间模式获取部分,其根据所述通知部分正在通知指定时刻的同时由用户所输入的操作,获取代表一系列声音强度的输入持续时间模式。所述搜索部分根据输入持续时间模式的各个声音与相应的一个乐音持续时间模式的各个声音之间的持续时间的差异的绝对值,计算输入节奏模式与每个乐音节奏模式之间的相似度,以及所述搜索部分所识别出的乐音数据组是与计算出的与输入节奏模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组。
根据本发明的另一方面,提供了一种乐音数据创建***,包括:输入装置,用户通过输入装置输入演奏操作;以及根据以上方面中每一个所述的乐音数据处理设备,在所述乐音数据处理设备的通知部分正使预定时间段内的指定时刻前进的同时,所述乐音数据处理设备获取用户已经向所述输入装置输入各个演奏操作时的一系列时间间隔,作为代表了各个声音将被可听地产生的一系列声音产生时刻的节奏模式。
一种计算机可读介质,其中存储了用于使计算机执行下述步骤的程序:在存储装置中彼此相关联的存储乐音数据组和乐音节奏模式的步骤,其中每个乐音数据组代表了预定时间段内的多个声音,每个乐音节奏模式代表了多个声音的一系列声音产生时刻;不仅根据时间的过去而使所述时间段内的指定时刻前进、而且向用户通知指定时刻的通知步骤;根据在所述通知步骤正在通知指定时刻的同时由用户所输入的操作,获取代表与操作的模式相对应的一系列指定时刻的输入节奏模式的步骤;以及针对与输入节奏模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组搜索所述存储部分中存储的乐音数据组的步骤。
下文将描述本发明的实施例,但是应该理解的是,本发明并不限于所描述的实施例,在不脱离本发明的基本原理的情况下,本发明的各种修改是可行性。因此,本发明的范围仅仅由所附权利要求确定。
附图说明
图1是示出了根据本发明第一实施例的乐音数据处理***的总体设置的示意图;
图2是示出了在根据本发明第一实施例的乐音数据处理***中提供的信息处理装置的硬件设置的框图;
图3是示出了信息处理装置的节奏DB(数据库)的示例存储内容的框图;
图4是示出了第一实施例的信息处理装置的功能布置的框图;
图5是示出了乐音数据处理***中的节奏输入装置的节奏模式搜索部分所执行的搜索处理的示例操作序列的流程图;
图6是示出了ON-设定时刻间隔的分布表格的示图;
图7是节奏模式之间的差异的示意性说明示图;
图8是由演奏处理部分以循环再现模式执行的处理的示意性说明示图;
图9是由演奏处理部分以演奏再现模式执行的处理的示意性说明示图;
图10是示出了本发明第二实施例中的节奏输入装置的总体设置的示意图;
图11是示出了本发明第二实施例中的信息处理装置的示例硬件设置的框图;
图12是示出了伴奏数据库中所包含的表格的内容的示意图;
图13A是示出了伴奏数据库中所包含的表格的内容的示意图;
图13B是示出了伴奏数据库中所包含的表格的内容的示意图;
图14是本发明第二实施例中的信息处理装置以及信息处理装置周围的其他组件的功能布置的框图;
图15是示出了本发明第二实施例中的信息处理装置所执行的处理的示例操作序列的流程图;
图16是示出了自动伴奏数据的搜索结果的示例的示意图;
图17是BPM同步处理的示意性说明图;
图18是示出了基调表格的示例的示图;
图19A是示出了与风格数据相关的表格的示例的示图;
图19B是示出了与风格数据相关的表格的示例的示图;
图20是本发明第三实施例中的信息处理装置所执行的处理的流程图;
图21是示出了风格数据的搜索结果的示例的示意图;
图22是风格数据的配置显示屏的示例的示图;
图23是示出了其中向乐句乐音数据组的各个组件声音施加了渐弱(fading out)方案的示例的示意图;
图24是示出了ON-设定时刻间隔表格的示例的示图;
图25是示出了距离基准表格的示例的示图;
图26是示出了ON-设定时刻表格的示例的示图;
图27是利用乐音音高模式的搜索处理的示意性说明图;
图28是用于搜索多个小节(measure)的节奏模式的处理的示意性说明图;
图29是示出了移动通信终端的示图;以及
图30是示出了针对伴奏声音源获取的搜索结果的列表的示意图。
具体实施方式
下文将详细描述本发明的某些优选实施例。
<第一实施例>
(乐音数据搜索***)
<结构>
图1是示出了根据本发明第一实施例的乐音数据处理***100的总体设置的示意图。乐音数据处理***100包括节奏输入装置10和信息处理装置20,并且节奏输入装置10和信息处理装置20经由通信线路可通信地相互连接。节奏输入装置10与信息处理装置20之间的通信可通过无线方式实现。节奏输入装置10例如包括作为输入手段或构件的电子操作板。响应于用户敲击节奏输入装置10的电子操作板的表面,节奏输入装置10向信息处理装置20输入一个表示电子操作板被敲击(即,用户已经执行了演奏操作)的触发数据、以及一个以每小节(或节(bar))为基础表示或代表该敲击操作(即,演奏操作)的强度的速度数据。每次用户敲击电子操作板的表面,则产生一个触发数据,并且每个这种触发数据均与一个速度数据相关联。在每个小节(或节)中产生的触发数据和速度数据的组代表用户利用节奏输入装置10输入的节奏模式(下文中有时称为“输入节奏模式”)。即,节奏输入装置10是用户执行或输入演奏操作所用的输入装置的示例。
信息处理装置20例如是一个PC。信息处理装置20执行应用程序的多个操作模式为循环再现模式、演奏再现模式以及演奏循环再现模式。用户可经由后面将要描述的布置在信息处理装置20中的操作部分25来在这些操作模式间进行切换。当操作模式是循环再现模式时,信息处理装置20对其中存储了具有不同节奏模式的多个乐音数据组的数据库中进行搜索以查找与经由节奏输入装置10输入的节奏模式相同或最相似的乐音数据组、提取被搜索出来的乐音数据组、将所提取的乐音数据组转换成声音、并随后以可听方式输出转换后的声音。这时,信息处理装置20根据被搜索出来并提取的乐音数据组来重复地再现声音。并且,当操作模式是演奏再现模式时,信息处理装置20不仅可以根据所提取的乐音数据组来输出声音,而且还采用所提取的乐音数据组的组件声音(component sound)来根据演奏操作输出声音。并且,当操作模式是演奏循环再现模式时,信息处理装置20不仅可以根据所提取的乐音数据组来重复地输出声音,而且还根据用户利用所提取的乐句的组件声音所进行的演奏来重复地输出声音。注意,用户可以按需经由操作部分25来打开或者关闭搜索功能。
图2是示出了信息处理装置20的硬件设置的框图。信息处理装置20包括:控制部分21、存储部分22、输入/输出接口部分23、显示部分24、操作部分25以及声音输出部分26,它们经由总线相互连接。控制部分21包括CPU(中央处理单元)、ROM(只读存储器)、RAM(随机存取存储器)等。CPU读出存储在ROM或存储部分22中的应用程序,将所读出的应用程序载入RAM,执行所载入的应用程序,从而经由总线控制各个部分。并且,RAM用作将被CPU例如在处理数据时使用的工作区。
存储部分22包括节奏数据库(DB)221,节奏数据库221包含(存储了)具有不同节奏模式的乐音数据组以及与乐音数据组相关的信息。输入/输出接口部分23不仅将从节奏输入装置10输出的数据输入至信息处理装置20,而且根据控制部分21的指令来将各种信号输出至输入装置10,以便控制节奏输入装置10。显示部分24例如具有向用户显示对话屏幕等的可视显示器的形式。操作部分25例如具有鼠标和/或键盘的形式,其响应于用户操作而从控制部分21接收信号或向其提供信号,从而控制部分21根据从操作部分25接收到的信号来控制各种部分。声音输出部分26包括DAC(数字-模拟转换器)、放大器和扬声器。声音输出部分26通过DAC将控制部分21从节奏DB 221搜索出并提取的数字乐音数据组转换成模拟乐音数据组,通过放大器放大该模拟乐音数据组,随后通过扬声器以可听方式输出与放大后的模拟声音信号相对应的声音。即,声音输出部分26是用于可听地输出与乐音数据组相对应的声音的声音输出部分的示例。
图3是示出节奏DB 221的示例内容的示图。节奏DB 221包含乐器类型表格、节奏类别表格以及乐句表格。图3的(a)示出了乐器类型表格的示例,其中每个“乐器类型ID”是唯一地识别乐器类型的识别符(例如是三位数字的形式)。即,乐器类型表格中描述了与不同乐器类型(例如“架子鼓”、“康加鼓”以及“非洲鼓”)的各个乐器类型相关联的多个唯一乐器类型ID。例如,乐器类型表格中描述了与乐器类型“架子鼓”相关的唯一乐器类型ID“001”。类似地,乐器类型表格中描述了与其它乐器类型相关联的唯一乐器类型ID。注意,“乐器类型”不限于图3的(a)所示的这些。
图3的(b)示出了节奏类别表格的示例,其中每个“节奏类别ID”是唯一地识别节奏模式的类别(下文称作“节奏类别”)的识别符并且以例如两位数字的形式来表示。此处,每个“节奏模式”代表了预定时间长度的时间段内将要可听地产生各个声音的一系列时刻。具体地说,在示例实施例中,每个“节奏模式”代表了在作为时间段的一个示例的一个小节内将要可听地产生各个声音的一系列时刻。每个“节奏类别”是节奏类别的名称,并且节奏类别表格中描述了与不同节奏类别(例如“八分音符”、“十六分音符”以及“八分音符三连音”)的各个节奏类别相关联的多个唯一节奏类别ID。类似地,节奏类别表中描述了与其它节奏类别相关联的唯一节奏类别ID。注意,“节奏类别”不限于图3的(b)所示的这些。例如,更粗地分类成节拍或者流派,或者更细地将单独的类别ID分配给每个节奏类型。
图3的(c)示出了乐句表格的示例,其中包含多个乐句记录,每个乐句记录包括构成一个小节的乐句的乐音数据组以及与该乐音数据组相关联的信息。此处,“乐句(phrase)”是多个单位中的一个,每个单位代表一组音符。这种乐句以乐器类型ID为基础利用乐器类型ID分组,并且在通过节奏输入装置10输入节奏之前,用户可以通过操作部分25来选择期望的乐器类型。用户所选的乐器类型被存储在RAM中。作为乐句表格的一个示例内容,图3(c)示出了其乐器类型是“架子鼓”(乐器类型ID是“001”)的多个乐句记录。每个乐句记录包括多个数据项,例如乐器类型ID、乐句ID、节奏类别ID、乐句乐音数据组、节奏模式数据、以及击打强度模式数据。如前面所述,乐器类型ID是唯一地识别乐器类型的识别符,并且乐句ID是唯一地识别乐句记录的识别符,并且乐句ID例如具有四位数字的形式。节奏类别ID是识别当前的乐句记录属于前述节奏类别的哪一个的识别符。在图3的(c)的图示示例中,如图3的(b)中示出的节奏类别表所示,节奏类别ID是“01”的乐句记录属于节奏类别“八分”。
“乐句乐音数据组”是与包含在构成一个小节的乐句中的声音(下文称为“组件声音”)有关的以声音文件格式(例如WAVE(RIFF波形音频格式)或mp3(音频动态压缩第3层))准备的数据文件。每个“节奏模式数据”均是其中记录了构成一个小节的乐句的各个组件声音的声音产生开始时刻的数据文件;例如,每个“节奏模式数据”是其中记录了各个组件声音的声音产生开始时刻的文本文件。使用小节的长度作为值“1”来使每个组件声音的声音产生开始时刻归一化。即,节奏模式数据中描述的每个组件声音的声音产生开始时刻具有从“0”到“1”的范围内的值。从前面的描述可以看出,节奏DB 211是其中预先存储了多个节奏模式以及与节奏模式相关联地构建在节奏模式中的乐句的乐音数据组的存储部分的一个示例,其中每个节奏模式代表了在预定长度的时间段(在此情况下为一个小节)内各个组件声音将被可听地产生的一系列时刻。此外,在多个节奏模式被分成多个已分类的节奏模式组的情况下,节奏DB 211还是其中与分配给上述定义的各节奏模式组的各个节奏模式相关联地存储了节奏分类ID(在示例实施例中为节奏类别ID)的存储部分的示例。
可以按下述方式预先产生节奏模式数据。希望创建节奏模式数据的个人或操作人员从其中嵌入了组件声音产生开始时刻的可商业获取的可听循环素材中提取组件声音产生开始时刻。随后,操作人员从提取的组件声音产生开始时刻当中去除落入诸如幻音(ghostnote)之类的可忽略音符的范围内的不必要的组件声音产生开始时刻。已经从中去除了这种不必要的组件声音产生开始时刻的数据可用作节奏模式数据。
此外,击打强度模式数据是其中记录了构成一个小节的乐句的各个组件声音的击打强度的数据文件;例如,击打强度模式数据是其中记录了各个组件声音的击打强度值的文本文件。击打强度对应于速度数据,其指示或代表了包含在输入节奏模式中的演奏操作强度。即,每个击打强度代表了乐句乐音数据组中的各个组件声音之一的强度值。例如可通过利用组件声音的波形的最大值、或通过对波形容量(volume)很大的波形的预定部分中的波形能量进行积分来计算击打强度。图3示意性地示出了乐器类型是“架子鼓”的乐句记录;不过,实际上在乐句表格中描述了对应于多种类型的乐器(康加鼓、沙球、非洲鼓、TR-808等)的乐句记录。
图4是示出了上述信息处理装置20的功能布置的框图。控制部分21执行小节线时钟输出部分211、输入节奏模式存储部分212、节奏模式搜索部分213、以及演奏处理部分214的各个功能。虽然下文描述了由上述各种部分执行的各种处理,但是实际上执行处理的主要组件是控制部分21。在下面的描述中,术语“ON-设定”指的是节奏输入装置10的输入状态从OFF切换成ON。例如,如果电子操作板是节奏输入装置10的输入部分或部件,则术语“ON-设定”表明电子操作板已经被敲击,如果键盘是节奏输入装置10的输入部件,则术语“ON-设定”表明键已经被按下,或者如果按钮是节奏输入装置10的输入部件,则术语“ON-设定”表明按钮已经被按下。并且,在下面的描述中,术语“ON-设定时刻”表示节奏输入装置10的输入状态已经从OFF变成ON的时间点。换言之,“ON-设定时刻”表示节奏输入装置10中已经出现(已经产生)触发数据的时间点。
在如上所述地利用一个小节(节)的长度作为“1”来归一化每个组件声音的声音产生开始时刻的情况下,小节线时钟输出部分211每隔几十个毫秒(msec)向输入节奏模式存储部分212输出一次表示当前时刻在进程时间轴上于小节中所处的位置的数据,作为时钟信号(下文中称为“小节线时钟信号”)。即,小节线时钟信号取介于“0”到“1”范围内的值。随后,基于这种小节线时钟信号,输入节奏模式存储部分212按每个小节向RAM中存储出现了从输入装置10输入的触发数据的时间点(即On-设定时刻)。在按每个小节如此存入RAM中的一系列On-设定时刻构成了输入节奏模式。由于存入RAM中的On-设定时刻中每一个都基于小节线时钟信号,所以其和小节线时钟一样取介于“0”到“1”的范围内的值。即,小节线时钟输出部分211是时间流逝通知部分的一个示例,其不仅用于使预定时间长度的时间段(在该情况下为一个小节)内的时间过去或流逝,而且用于通知或告知用户预定时间段内时间的过去或流逝。并且,输入节奏模式存储部分212是用于在小节线时钟输出部分211使预定长度的时间段(在该情况下为一个小节)内的时间流逝的同时(即,在小节线时钟输出部分211使预定长度的时间段前进的同时)获取已经由用户输入的节奏模式的获取部分的一个示例,节奏模式表示或代表了各个声音的一系列产生时刻(ON-设定时刻)。并且,信息处理装置20是用于在小节线时钟输出部分211使预定长度的时间段(在该情况下为一个小节)内的时间流逝的同时(即,在小节线时钟输出部分211使预定长度的时间段前进的同时)获取已经由用户输入的各个演奏操作的一系列时间点来作为表示或代表各个声音的一系列产生时刻的节奏模式(输入节奏模式)的乐音数据处理装置的一个示例。注意,由小节线时钟输出部分211使之前进的时间段可以或者不可以重复,并且从外部源向信息处理装置20输入的小节线时钟信号可用作上述小节线时钟信号。
此外,已经从信息处理装置20向用户反馈了小节线开始的时间点,从而用户可以按每个小节精确地输入节奏模式。为此,仅仅需要通过在每个小节和/或节拍时产生声音或光的信息处理装置20向用户可视地或可听地表示小节线的位置,例如节拍器之类。可替换的,演奏处理部分214可根据小节线时钟信号来对其中预先添加了每个小节线位置的伴奏声源进行再现。在这种情况下,用户根据由用户从再现的伴奏声源感觉到的小节线来输入节奏模式。
节奏模式搜索部分213使用存储在RAM中的输入节奏模式来搜索节奏DB 221的乐句表格,并使得RAM对节奏模式数据与输入节奏模式相同或最相似的乐句记录作为搜索结果进行存储。即,节奏模式搜索部分213是用于从存储在存储部分中的乐音数据组中搜索并获取与满足呈现与作为获取部分的输入节奏模式存储部分212所获取的节奏模式具有高相似度的条件的节奏模式相关联的乐音数据组的搜索部分的一个示例。演奏处理部分214设置存储在RAM中的乐句记录的乐句乐音数据组(搜索结果)作为再现对象或主体,随后使得声音输出部分26根据乐句乐音数据(设置为再现对象或主体)与小节线时钟信号同步地可听地输出声音。此外,如果操作模式是演奏再现模式或演奏循环再现模式,则演奏处理部分214通过利用乐句记录中的组件声音控制用户的演奏操作。
<实施例的动作>
接下来,参考图5至图7,将描述节奏模式搜索部分213所执行的用于在搜索功能为ON时根据输入节奏模式从乐句表格中检测特定乐句记录的处理。
图5是示出了节奏模式搜索部分213所执行的搜索处理的示例操作序列的流程图。首先,在步骤Sb1中,节奏模式搜索部分213使用RAM中存储的乐器类型ID来搜索乐句表格。乐器类型ID是响应于用户经由操作部分25预先对其进行指定而存储在RAM中的一个乐器类型ID。在后续的操作中,节奏模式搜索部分213使用在步骤Sb1中搜索出来的乐句记录作为处理对象。
如上所述,输入节奏模式包括以一个小节的长度为“1”而归一化的ON-设定时刻。在接下来的步骤Sb2中,节奏模式搜索部分213计算RAM中存储的输入节奏模式中的ON-设定时刻间隔的分布。ON-设定时刻间隔各自是时间轴上一对相邻的ON-设定时刻之间的间隔,并且由介于“0”到“1”之间的数值表示。并且,假设一个小节被分成48个相等的时间片段,则ON-设定时刻间隔的分布由对应于这些时间片段的ON-设定时刻间隔的数量来表示。一个小节被分成48个相等的时间片段的原因是,如果每个节拍被分成12个相等的时间片段(假设每小节四拍(quadruple-time)的节奏),则可以实现适用于在多个不同节奏类别(例如,八分、八分三连音以及十六分)当中进行识别的分辨率。此处,通过可由序列软件(例如在示例实施例中采用的音序器或应用程序)表达的最短长度的音符来确定“分辨率”。在本示例实施例中,分辨率是每小节“48”,因此一个四分音符被分成12个片段。
在下面同样关于乐句的描述中,以与输入节奏模式相同的含义使用术语“ON-设定时刻”和“ON-设定时刻间隔”。即,乐句记录中描述的每个组件声音的声音产生开始时刻是ON-设定时刻,并且时间轴上相邻ON-设定时刻之间的间隔是ON-设定时刻间隔。
下面采用ON-设定时刻的具体值来描述步骤Sb2中ON-设定时刻间隔的分布是如何计算的。在此假设用户已经输入其中记录了以如下项目(a)表示的ON-设定时刻的八分乐句的节奏模式。
(a)0,0.25,0.375,0.5,0.625,0.75以及0.875
根据上述项目(a)中表示的输入节奏模式,节奏模式搜索部分213计算了下述项目(b)中表示的ON-设定时刻间隔。
(b)0.25,0.125,0.125,0.125,0.125以及0.125
然后,节奏模式搜索部分213通过将如上计算出的每个ON-设定时刻间隔乘以值“48”、将“0.5”与所得的乘积相加、随后对所得和的小数点之后的位数进行向下舍入(即“量化处理”)而计算出下述项目(c)中表示的一组值。
(c)12,6,6,6,6以及6
此处,“量化处理”指的是节奏模式搜索部分213根据分辨率来校正每个ON-设定时刻间隔。执行量化的原因如下所述。乐句表格中的节奏模式数据中描述的声音产生时刻基于分辨率(在本情况下为48)。因此,如果利用ON-设定时刻间隔来搜索乐句表格,则搜索精度将下降,除非ON-设定时刻间隔也基于分辨率。为此,节奏模式搜索部分213执行对上述项目(b)中指示的每个ON-设定时刻间隔的量化处理。
下文进一步参考图6的(a)至(c)所示的分布表格来描述ON-设定时刻间隔的分布。
图6的(a)是输入节奏模式中的ON-设定时刻间隔的分布表格。在图6的(a)中,水平轴表示一个小节被分成48个时间片段的情况下的时刻间隔,而垂直轴表示量化的ON-设定时刻间隔的数量的比值(“数量比”)。在图6的(a)中,项目(c)中的值被分配给分布表格。数量比被节奏模式搜索部分213归一化,从而数量比的和为“1”(一)。从图6的(a)可以看出,分布峰值在时间间隔“6”处,时间间隔“6”是作为量化的ON-设定时刻间隔的项目(c)的值的组中的数量的最大值。
在步骤Sb2之后的步骤Sb3,节奏模式搜索部分213利用乐句表格中描述的所有节奏模式来针对每个节奏类别计算ON-设定时刻间隔的分布。在此假设在各个乐句记录的节奏模式数据中描述了两个八分节奏模式、两个十六分节奏模式以及两个八分三连音节奏模式,如下所示:
·八分节奏类别
(A)0,0.25,0.375,0.5,0.625,0.75以及0.875;
(B)0,0.121,0.252,0.37,0.51,0.625,0.749以及0.876;
·十六分节奏类别
(C)0,0.125,0.1875,0.251,0.374,0.4325,0.5,0.625,0.6875,0.75,0.876以及0.9325;
(D)0,0.625,0.125,0.1875,0.251,0.3125,0.375,0.4325,0.5,0.5625,0.625,0.6875,0.75,0.8125,0.875以及0.9325;
·八分三连音节奏类别
(E)0,0.8333,0.1666,0.25,0.3333,0.4166,0.5,0.5833,0.6666,0.75,0.8333以及0.91666;以及
(F)0,0.1666,0.25,0.333,0.4166,0.5,0.6666,0.75,0.8333以及0.91666。
节奏模式搜索部分213针对上述(A)-(F)所示的模式,利用类似于步骤Sb2的计算方案,计算每个节奏类别的ON-设定时刻间隔的分布。图6的(b)示出了向其分配了针对各个节奏类别(即八分节奏类别、十六节奏类别以及八分三连音节奏类别)而计算的ON-设定时刻间隔的分布的分布表格。当搜索功能处于ON状态的情况下重复搜索处理时,乐句记录和节奏类别保持相同(不变化),除非乐器类型在处理的第二次或后续执行中在步骤Sb1改变、并且步骤Sb3的操作因此省略。相反,当搜索功能处于ON状态的情况下重复搜索处理时,如果乐器类型已经在步骤Sb1中改变,则执行步骤Sb3的操作。
在步骤Sb3之后的步骤Sb4,节奏模式搜索部分213计算表示基于输入节奏模式的ON-设定时刻间隔的分布表格(图6的(a))与基于乐句表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔的分布表格(图6的(b))之间的相似度值的距离。图6的(c)示出了表示基于输入节奏模式的ON-设定时刻间隔的分布表格(图6的(a))与基于乐句表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔的分布表格(图6的(b))之间的不同的分布表格。步骤Sb4中的相似度距离计算可以按照下述方式进行。首先,节奏模式搜索部分213针对基于输入节奏模式的ON-设定时刻间隔的分布表格以及基于乐句表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔的分布表格两者中的每个相同时刻间隔,计算两个表格之间的数量比中的差异的绝对值。随后,节奏模式搜索部分213针对每个节奏类别,计算通过对针对各个时间间隔计算的绝对值进行求和而得到的和的平方根。由此计算的平方根的值表示了上述相似度距离。相似度距离的较小值表示更高程度的相似性,而相似度距离的较大值表示更低程度的相似性。在图6的(c)的图示示例中,八分节奏类别呈现基于图6的(a)和图6的(b)的分布表格的数量比的最小差异,这就意味着,分布表格中表示的八分、十六分以及八分三连音节奏类别中,八分节奏类别具有与输入节奏模式最小的相似度距离。
在步骤Sb4之后的步骤Sb5中,节奏模式搜索部分213确定乐句表格中描述的节奏类别中呈现最小相似度距离的一个节奏类别是输入节奏模式所落入或属于的节奏类别。更具体地说,在该步骤中,节奏模式搜索部分213识别出输入节奏模式落入或属于八分节奏类别。即,通过上述步骤Sb2至步骤Sb4的操作,节奏模式搜索部分213识别出输入节奏模式非常有可能落入的具体节奏类别。即,节奏模式搜索部分213是针对每个节奏分类识别符(在当前实施例中为节奏类别)确定表示用户输入的、被作为获取部分的输入节奏模式存储部分212获取的节奏模式所代表的声音产生时刻间隔的频率分布的输入时刻间隔直方图(在当前实施例中为图6的(a)的图示示例)与针对每个节奏分类识别符(节奏类别)表示存储部分中存储的节奏模式中的声音产生时刻间隔的频率分布的节奏分类直方图(在当前实施例中为图6的(b)的图示示例)之间的差异的绝对值的搜索部分的一个示例,并且随后,节奏模式搜索部分213搜索与呈现最小绝对值的节奏类别识别符相关联的节奏模式中的满足呈现与输入的或获取的输入模式相似度最高的条件的特定节奏模式相关联的乐音数据组。
随后,在步骤Sb6,节奏模式搜索部分213计算乐句表格中描述的所有节奏模式与输入节奏模式之间的差异水平,以从所描述的节奏模式中识别出与输入节奏模式相同或呈现与输入节奏模式的最大程度的相似度的一个节奏模式。在此,“差异水平”表示输入节奏模式的各个ON-设定时刻间隔与乐句表格中描述的各个节奏模式的各个ON-设定时刻间隔有多不同或者彼此相距多远。即,输入节奏模式和乐句表格中描述的任意一个节奏模式之间的较小的差异水平表示输入节奏模式和乐句表格中描述的一个节奏模式之间较高程度的相似性。
即,在节奏模式搜索部分213在直到步骤Sb5为止的操作中识别出一个节奏类别极有可能对应于输入节奏模式的同时,其在步骤Sb6中的操作中将属于所有节奏类别的乐句记录当做计算对象。具体理由如下。在乐句记录中所包含的节奏模式数据当中,可能存在难以清楚地确定节奏模式数据属于哪个节奏类别的节奏模式数据,例如其中同一个小节中存在数量基本相等的八分ON-设定时刻间隔和十六分ON-设定时刻间隔的节奏模式数据。在这种情况下,通过如上所述地由节奏模式搜索部分213在步骤Sb6处理作为计算对象的属于所有节奏类别的乐句记录,可以有利地提高用户期望的节奏模式被精确检测出来的可能性。
下面参考图7更详细地描述步骤Sb6的操作。图7是节奏模式之间的差异计算的说明示意图。在图7中,J表示输入节奏模式,K表示乐句表格中描述的节奏模式之一。以如下方式计算输入节奏模式J与节奏模式K之间的差异水平。
(1)节奏模式搜索部分213计算输入节奏模式J的各个ON-设定时刻与节奏模式K的最接近于输入节奏模式J的各个ON-设定时刻的ON-设定时刻之间的差异的绝对值(图7的(1)),换言之,基于输入节奏模式J的各个ON-设定时刻进行计算。
(2)随后,节奏模式搜索部分213计算(1)中计算的绝对值的积分值。
(3)节奏模式搜索部分213计算节奏模式K的各个ON-设定时刻与输入节奏模式J的最接近于节奏模式K的各个ON-设定时刻的ON-设定时刻之间的差异的绝对值(图7的(3)),换言之,基于节奏模式K的各个ON-设定时刻进行计算。
(4)随后,节奏模式搜索部分213计算(3)中计算的绝对值的积分值。
(5)随后,节奏模式搜索部分213计算(2)中计算的积分值与(4)中计算的积分值之间平均值,作为输入节奏模式J与节奏模式K之间的差异。
在其中没有准备足够数量的节奏模式的示例实施例中,节奏模式搜索部分213在积分值的计算中执行用于避免使用比参考时刻间隔(在所示示例中为“0.125”,因为此处的节奏类别是“八分”)大的每个ON-设定时刻间隔差异的绝对值的操作。另一方面,在其中准备了足够数量的节奏模式的情况下,节奏模式搜索部分213不必执行上述用于避免使用大于参考时间间隔的每个ON-设定时刻间隔差异的绝对值的操作。节奏模式搜索部分213针对乐句表格中包含的所有乐句记录中的节奏模式来执行前述计算(1)至(5)。即,节奏模式搜索部分213是计算输入节奏模式存储部分212(其作为获取部分)获取的输入节奏模式所表示的各个声音产生时刻与存储在存储部分中的节奏模式所表示的、在时间轴上最靠近获取部分获取的输入节奏模式所表示的声音产生时刻的声音产生时刻之间的差异的积分值的搜索部分的一个示例,其识别出在所有乐句记录中的节奏模式当中计算出的积分值最小的那个具体节奏模式,作为满足与输入节奏模式呈现高度相似度的条件的节奏模式,然后获取与该具体节奏模式相关联的乐音数据组。
接下来在步骤Sb7,节奏模式搜索部分213将步骤Sb4针对每个节奏类别计算出的相似度距离与步骤Sb6计算出的差异相乘,从而计算乐句表格中包含的乐句记录中的每个节奏模式与输入节奏模式的距离。下面是步骤Sb7的操作的一个数学表达的说明,其中如上所述,“J”表示输入节奏模式,“K”表示N分(N-th)乐句记录中的节奏模式K;注意,节奏模式J和K之间较小的距离意味着节奏模式K与输入节奏模式J具有较高的相似度。
节奏模式J和节奏模式K之间的距离=(节奏模式J与节奏模式K所属节奏类别之间的相似度距离)×(节奏模式J与K之间的差异)。
但是,注意,在前述距离计算中,执行下述操作,从而从在上述步骤Sb5确定输入节奏模式所属的类别内输出搜索结果。即,节奏模式搜索部分213确定步骤Sb5中识别出的节奏类别与节奏模式K的节奏类别是否彼此相同,并且如果不相同,则将预定常数(例如0.5)加入上述数学表达的计算结果。通过添加预定常数,对于属于不同于步骤Sb5识别出的节奏类别的节奏类别的每个乐句记录,节奏模式距离将变得更大,因此,可以更容易地从步骤Sb5识别出的节奏类别内输出搜索结果。随后,在步骤Sb8,节奏模式搜索部分213将与输入节奏模式的距离最小的一个具体节奏模式,看作是满足与输入节奏模式呈现高度相似度的条件的节奏模式,随后节奏模式搜索部分213将具有该具体节奏模式的节奏模式数据的乐句记录输出为搜索结果。前面已经描述了节奏模式搜索部分213所执行的用于在搜索功能为ON时根据输入节奏模式输出来自乐句表格的具体乐句记录作为搜索结果的处理的操作序列。
下面描述演奏处理部分214在循环再现模式、演奏再现模式和演奏循环再现模式中的每一个下所执行的处理。如上所述,通过将输入节奏模式进行输入,用户可使演奏处理部分214根据通过前述搜索识别出的乐句记录(以下称为“搜出乐句”)来输出声音(在循环再现模式和演奏循环再现模式中的每一个下)。并且,如上所述,用户可利用搜出乐句的组件声音对节奏输入装置10执行演奏操作并且使演奏处理部分214根据(在循环再现模式和演奏循环再现模式中的每一个中的)演奏操作输出乐句的声音。下面的描述解释了循环再现模式、演奏再现模式和演奏循环再现模式之间的差异。
图8是循环再现模式下由演奏处理部分214执行的处理的示意性说明示图。循环再现模式是这样一种模式,其中,演奏处理部分214根据小节线时钟输出部分211所指示的BPM(节拍/分钟)且与伴奏合拍地来重复地输出基于一个小节的搜出乐句的声音作为再现对象。一旦小节线时钟通过搜出乐句的一个小节内的组件声音中的任意一个的声音产生开始时刻,则演奏处理部分214将该个组件声音设置为再现对象。此处,一旦小节线时钟到达值“1”,即一旦经过了一个小节,则小节线时钟再次取“0”值,此后小节线时钟重复取“0”至“1”的值。因此,利用小节线时钟的重复周期,基于搜出乐句的声音被重复地输出作为再现对象。在图8所示的示例中,一旦小节线时钟通过搜出乐句的一个小节内的组件声音中的任意一个的声音产生开始时刻,则演奏处理部分214将该个组件声音设置为再现对象,如箭头所示。即,循环再现模式是在用户希望确知搜出乐句包括何种类型的音量、音色和节奏模式时初始地指定的模式。
图9是演奏再现模式下由演奏处理部分214执行的处理的示意性说明示图。演奏再现模式是这样一种模式,其中,一旦用户经由节奏输入装置10执行了演奏操作,则与已经执行了演奏操作的时刻相对应的搜出乐句的组件声音被演奏处理部分214设置为处理对象。在演奏再现模式中,一个组件声音仅仅在已经执行了演奏操作的时刻被设置为处理对象。即,在演奏再现模式中,不同于循环再现模式,在用户不执行演奏操作时完全不输出声音。即,在演奏再现模式中,当用户以与搜出乐句的节奏模式完全相同的节奏模式执行演奏操作时,仅仅可听地输出只基于搜出乐句的声音。换言之,演奏再现模式是当用户希望由他自己或她自己来利用搜出乐句的组件声音持续地执行演奏时指定的模式。
在图9中,示出了用户已经在由双向箭头所指示的各个时间周期(“01”-“06”)内的由箭头指示的时间点利用节奏输入装置10执行了演奏操作。更具体地说,在演奏再现模式中,向演奏处理部分214输入了四种类型的参数,即,速度数据、触发数据、搜出乐句的各个组件声音的声音产生开始时刻、以及各个组件声音的波形。在这些参数中,速度数据和触发数据基于用户通过节奏输入装置10输入的节奏模式。并且,搜出乐句的各个组件声音的声音产生开始时刻和波形包含在搜出乐句的乐句记录中。在演奏再现模式中,每次用户通过节奏输入装置10执行演奏时,向演奏处理部分214输入速度数据和触发数据,从而演奏处理部分214执行下述处理。即,演奏处理部分214向声音输出部分26输出其声音产生时刻与触发数据的ON-设定时刻差别最小的搜出乐句的组件声音中的任意一个的波形,同时指定与速度数据相对应的音量。此处,搜出乐句的各个组件声音的击打强度水平可输入至演奏处理部分214作为附加输入参数,从而演奏处理部分214可以向声音输出部分26输出其声音产生时刻与触发数据的ON-设定时刻差别最小的搜出乐句的组件声音中的任意一个的波形,同时指定与对应于组件声音的击打强度水平的速度数据相对应的音量。应该注意的是,与未输入触发数据的周期(例如该情况下的“02”和“03”)相对应的组件声音中的任何一个的波形不被输出至声音输出部分26。
接下来,演奏循环再现模式是循环再现模式和演奏再现模式的组合的模式。在演奏循环再现模式中,演奏处理部分214按照每个小节确定用户是否已利用节奏输入装置10执行了演奏操作。在演奏循环再现模式中,演奏处理部分214将基于搜出乐句的声音设置为再现对象,直到用户利用节奏输入装置10执行了演奏操作。即,在用户利用节奏输入装置10执行了演奏操作之前,演奏处理部分214以与循环再现模式相同的方式工作。这样,一旦用户在给定小节内利用节奏输入装置10执行了演奏操作,只要该给定小节持续,演奏处理部分214就以与演奏再现模式相同的方式工作。即,搜出乐句的对应于用户已经执行了演奏操作的时刻的一个组件声音被演奏处理部分214设置为再现对象。在演奏循环再现模式中,如果用户仅仅执行一个演奏操作但是在后续小节中不执行任何演奏操作,则对应于用户在前一个小节中进行输入的时间点的搜出乐句的组件声音被设置为再现对象。即,演奏再现模式是用户不仅希望由他自己或她自己来利用搜出乐句的组件声音执行演奏、而且希望以循环方式(即循环再现)根据用户输入的节奏模式再现搜出乐句的组件声音时指定的模式。
以上述方式构建的信息处理装置20可搜索并提取在与用户期望节奏模式的相似度满足预定条件的节奏模式中构建的乐音数据组。并且,允许用户利用搜出乐句的组件声音执行演奏。
接下来将描述本发明的第二实施例。
<第二实施例>
(音乐数据创建***)
<结构>
本发明的第二实施例被实现或实施或实践为作为音乐数据处理***的示例的音乐数据创建***,并且该音乐数据创建***被布置来创建自动伴奏数据(更具体地说,自动伴奏数据组)作为音乐数据的示例。将在该示例实施例中处理的自动伴奏数据被读入电子乐器、音序器等中,并且起到像所谓的MIDI自动伴奏数据的作用。除了节奏输入装置和信息处理装置的构造之外,以与图1中的音乐数据创建***大体上相同的方式构建根据第二实施例的音乐数据创建***100a。因此,第二实施例中的节奏输入装置和信息处理装置由具有后缀“a”的各参考标号来表示。即,音乐数据创建***100a包括通过通信线路可通信地互联的节奏输入装置10a和信息处理装置20a。可选地,可以按照无线方式实施节奏输入装置10a和信息处理装置20a之间的通信。在第二实施例中,例如,节奏输入装置10a包括作为输入部件的键盘和操作板。响应于用户按下节奏输入装置10a的键盘的键,节奏输入装置10a向信息处理装置20a输入一个表示键盘的键被按下(即,用户已经执行了演奏操作)的触发数据、以及一个以每小节为基础表示键按下(即,演奏操作)的强度的速度数据。每次用户按下键盘的键,就产生一个触发数据,并且触发数据由指示键按下的键开启信息来表示。每个这样的触发数据与一个速度数据相关联。一个小节(或节)中产生的触发数据和速度数据的组代表用户利用节奏输入装置10a在该小节中输入的节奏模式(下文中有时称为“输入节奏模式”)。用户针对与键盘的键范围相对应的演奏部件的每一个来输入这种节奏模式。并且,对于表示打击乐器的演奏部件,用户利用操作板输入节奏模式。即,节奏输入装置10a是用户经由其输入演奏操作的输入装置。
信息处理装置20a(例如一个PC)包括:包含自动伴奏数据组和将被用于组成自动伴奏数据组的各个部分的乐音数据组的数据库,以及使用该数据库的应用程序。应用程序包括用于根据将要搜索乐音数据组时输入的节奏模式来选择演奏部件的选择功能、以及用于再现当前正在创建的自动伴奏数据组或已经创建的自动伴奏数据组的再现功能。自动伴奏数据组包括多个演奏部件的数据,每个演奏部件都具有特定的节奏模式;例如,多个部件是贝司、和弦、单音符乐句(即,包括单音符的组合的乐句)、低音鼓、小鼓、踩镲等。更具体地说,这些数据包括自动伴奏数据表格、以及在自动伴奏数据表格中定义的诸如txt和WAVE(RIFF波形音频格式)文件之类的各种文件。每个部分的乐音数据组被以如下文件格式记录,例如WAVE(RIFF波形音频格式)或MP3(音频动态压缩第3层),用于具有单音色和预定长度或持续时间(例如两小节、四小节或八小节持续时间)的演奏声音。注意,在数据库中还记录了用于替换自动伴奏数据但当前未用于自动伴奏数据的乐音数据。
并且,对于用户已经输入了节奏模式的演奏部件,信息处理装置20a通过选择功能在数据库中搜索与经由节奏输入装置10a输入的节奏模式相同或类似的乐音数据组,随后信息处理装置20a显示具有搜出乐音数据组的自动伴奏数据组的名称列表。此后,信息处理装置20a根据已经由用户从显示列表中选出的一个自动伴奏数据组来输出声音。此时,信息处理装置20a根据搜出的乐音数据组重复地输出声音。即,一旦用户已经针对多个演奏部件的任意一个选择了已经根据用户输入的节奏模式搜出的一个自动伴奏数据组,则信息处理装置20a根据所选的自动伴奏数据组以可听方式再现声音。如果已经选择了演奏部件,则信息处理装置20a在根据需要改变了拍速(tempo)(即,加快或变缓)以使得预定定时(例如节拍定时)与该已经选择的部件同步后,根据所选的自动伴奏数据组以可听方式再现声音。即,在音乐数据创建***100a中,选择多个不同的演奏部件,并且用户针对所选部件的每一个来输入节奏模式,以搜索数据库。随后,用户从搜出的自动演奏数据组当中对期望部件的自动演奏数据组进行选择并组合,从而这些自动演奏数据组以相互同步的方式被可听地再现。注意,响应于用户对操作部分25的操作,可以在搜索功能的ON和OFF状态之间进行切换。
图10是示出了节奏输入装置10a的总体设置的示意图,节奏输入装置10a包括作为输入装置的键盘11和输入操作板12。一旦用户通过输入装置输入了节奏模式,则信息处理装置20a就根据用户输入的节奏模式来搜索乐音数据组。前述演奏部件分别与键盘11的预定范围以及输入操作板12的类型相关联。例如,以两个分割点将键盘11的整个键范围划分成低音键范围、中音键范围以及高音键范围。低音键范围被用作与贝司部件相关联的贝司输入范围键盘11a。中音键范围被用作与和弦部件相关联的和弦输入范围键盘11b。高音键范围被用作与单音符乐句部分相关联的乐句输入范围键盘11c。并且,低音鼓部分与低音鼓输入操作板12a相关联,小鼓部分与小鼓输入操作板12b相关联,踩镲部分与踩镲输入操作板12c相关联,钹部分与钹输入操作板12d相关联。通过在指定了将在键盘11上按下的键范围的任意一个或将被按下的输入操作板12的任意一个之后执行演奏操作,用户可以针对与指定的输入装置(键范围或操作板)相关联的演奏部件来搜素并提取乐音数据。即,键盘11和输入操作板12所处的各个区域对应于诸如键盘11和输入操作板12之类的演奏控件。
例如,一旦用户通过按下与贝司输入范围键盘11a相对应的键范围来输入节奏模式,信息处理装置20a识别出具有与输入节奏模式相同或落入与输入节奏模式的预定相似度范围的节奏模式的贝司乐音数据组,随后信息处理装置20a将由此识别出的贝司乐音数据组显示为搜出结果。在下面的描述中,贝司输入范围键盘11a、和弦范围键盘11b、乐句输入范围键盘11c、低音鼓输入操作板12a、小鼓输入操作板12b、踩镲输入操作板12c以及钹输入操作板12d有时被称为“演奏控件”。一旦用户操作了任意一个演奏控件,则节奏输入装置10a就向信息处理装置20a输入对应于用户操作的操作信号。在此假设操作信号是MIDI(乐器数字接口)格式的信息;因此,这种信息在下文中将被称为“MIDI信息”。这种MIDI信息除了前述触发数据和速度数据之外还包括音符编号(如果所使用的演奏控件是键盘)、或通道信息(如果所使用的演奏控件是操作板之一)。信息处理装置20a根据从节奏输入装置10a接收到的MIDI信息来识别已经由用户执行了演奏操作的演奏部件。
此外,节奏输入装置10a包括BPM输入控件13。“BPM”表示每分钟节拍数,更具体地说是在节奏输入装置10a上向用户通知的乐音的拍速。BPM输入控件13包括例如:诸如液晶显示器之类的显示表面以及转盘。一旦用户转动转盘,BPM值对应于转盘的旋转停止位置(即,转盘已经旋转的旋转位置)。经由BPM输入控件13输入的BPM将被称为“输入BPM”。节奏输入装置10a向信息处理装置20a输入包括识别输入BPM的信息的MIDI信息以及输入节奏模式。随后,根据MIDI信息中包含的输入BPM,信息处理装置20a例如通过经由声音输出部分26可听地输出声音和/或通过在显示部分24上闪光(所谓的“节拍器功能”),将拍速和演奏前进定时通知给用户。因此,用户可根据从这些声音或光感受到的拍速和演奏前进定时来操作演奏控件。
图11是示出了信息处理装置20a的示例硬件设置的框图。信息处理装置20a包括:控制部分21、存储部分22a、输入/输出接口部分23、显示部分24、操作部分25、以及声音输出部分26,它们通过总线相互连接。控制部分21、输入/输出接口部分23、显示部分24、操作部分25、以及声音输出部分26类似于在第一实施例中采用的那些部分。存储部分22a包括自动伴奏数据库(DB)222,并且伴奏数据库222包含与自动伴奏数据组相关的各种信息、乐音数据组、以及与乐音数据组相关的各种信息。
图12和图13是示出了上述伴奏数据库222中所包含的表格的内容的示意图。伴奏数据库222包括:部件表格、乐器类型表格、节奏类别表、节奏模式表格以及自动伴奏数据表格。图12的(a)示出了部件表格的示例。图12的(a)中的“部件ID”是唯一地识别构成自动伴奏数据组的当前演奏部件的识别符,并且其例如由2位数字表示。“部件名称”是表示演奏部件的类型的名称。部件表格中,对不同部件ID与各自的演奏部件(“贝司”、“和弦”、“乐句”、“低音鼓”、“小鼓”、“踩镲”、和“钹”)相关联地进行了描述。图12的(a)中所示的部件名称仅仅是示例性的,可以使用其它部件名称。“音符编号”是表示演奏部件分配至键盘的哪个键范围的MIDI信息。根据MIDI信息,音符编号“60”被分配给键盘的“中央C”。将编号“60”用作基准,等于或小于第一阈值“45”的音符编号被分配给“贝司”部件,等于或大于第二阈值“75”的音符编号被分配给“乐句”部件,以及等于或大于“46”但是等于或小于“74”的音符编号被分配给“和弦”部分,如图12的(a)所示。注意,上述第一阈值“45”以及第二阈值“75”仅仅是示例性的,用户可以根据需要进行修改。
此外,“通道信息”是表示演奏部件被分配给哪一个输入操作板的MIDI信息。在图12的(a)所示的示例中,“通道信息12a”被分配给“低音鼓”部件,“通道信息12b”被分配给“小鼓”部件,“通道信息12c”被分配给“踩镲”部件,“通道信息12d”被分配给“钹”部件。
图12的(b)示出了乐器类型表格的示例。“乐器类型ID”是唯一地识别乐器类型的识别符,并且其例如由3位数字表示。“乐器类型”是表示乐器的类型的名称。例如,在乐器类型表格中,与各乐器类型(例如“木贝司”、“电子贝司”、以及“重贝司”)相关联地对不同乐器类型ID进行了描述。例如,乐器类型“木贝司”在乐器类型表格中与乐器类型ID“001”相关联地进行了描述。类似地,其它乐器类型在乐器类型表格中与各自的乐器类型ID相关联地进行了描述。注意,图12的(b)所示的乐器类型仅仅是示例性的,可以使用其它乐器类型。
图12的(c)示出了节奏类别表的示例。“节奏类别ID”是唯一地识别节奏模式的类别(下文中称为“节奏类别”)的识别符,并且每个“节奏类别ID”例如由2位数字表示。在此,每个节奏类别代表预定时间长度的时间段内将要可听地产生各个声音的一系列时刻。具体地说,在示例实施例中,每个“节奏模式”代表了作为时间段的一个示例的小节(节)内将要可听地产生各个声音的一系列时刻。“节奏类别”是表示节奏类别的名称,多个唯一的节奏类别ID在节奏类别表中与各自的节奏类别(例如,“八分”、“十六分”以及“八分三连音”)相关联地进行了描述。例如,“八分”节奏类别在节奏类别表中与节奏类别ID“01”相关联地进行了描述。注意,图12的(c)所示的节奏类别仅仅是示例性的,可以使用任意其它节奏类别。例如,更粗地分类成节拍或者流派,或者通过将单独的类别ID分给每个节奏类型来得到更细的类别。可替换地,这些类别可组合来提供多个类别的结构化层次。
图13A示出了节奏模式表格的示例。在节奏模式表格中,针对唯一地识别演奏部件的每个部件ID描述了多个成组的节奏模式。在图13A中,示出了“贝司”部件(部件ID“01”)的多个节奏模式记录,作为节奏模式表格的一个示例。节奏模式记录的每一个都包括多个项目,例如“自动伴奏ID”、“部件ID”、“乐器类型ID”、“节奏类别ID”、“节奏模式ID”、“节奏模式数据”、“击打强度模式数据”、“乐音数据”、“基调”、“流派”、“BPM”以及“和弦”。针对每个演奏部件描述这种节奏模式表格。
“自动伴奏ID”是唯一地识别自动伴奏数据组的识别符,并且自动伴奏ID被分配给各个演奏部件的各个节奏模式记录的组合。例如,具有相同自动伴奏ID的自动伴奏数据组预先组合在一起,从而使得这些自动伴奏数据组具有相同的项目内容,例如“流派”、“基调”或“BPM”,由此,在针对多个演奏部件的合奏中再现自动伴奏数据组时可以显著地降低不舒服的感觉。如上所述,“乐器类型ID”是唯一地识别乐器类型的识别符。针对每个乐器类型ID使具有相同部件ID的节奏模式记录成一组,并且用户可在利用输入装置10a输入节奏之前通过使用操作部分25来选择乐器类型。用户所选的乐器类型被存入RAM。“节奏类别ID”是唯一地识别每个节奏模式记录所属的节奏类别的识别符。在图13A所示的示例中,“乐器类型ID”为“01”的节奏模式记录属于“八分”(即八分音符)节奏类别,如图12的(c)所示的节奏类别表所示。“节奏模式ID”是唯一地识别节奏模式记录的识别符,并且其例如由9位数字表示。这9位数字包括“部件ID”的2个数字、“乐器类型ID”的3个数字、“节奏类别ID”的2个数字、以及后缀编号的2位数字的组合。
“节奏模式数据”是其中记录了构成一个小节的乐句的各组件声音的产生开始时刻的数据文件;例如,节奏模式数据是其中描述了各组件声音的声音产生开始时刻的文本文件。声音产生开始时刻对应于包含在输入节奏模式中的指示已经执行了演奏操作的触发数据。在此,预先以一个小节的长度为“1”来使每个组件声音的声音产生开始时刻归一化。即,节奏模式数据中描述的每个组件声音的声音产生开始时刻取“0”至“1”的范围内的值。
可从可商业获取的音频循环素材中通过从该素材中自动去除幻音来提取节奏模式数据,而不是限于前面提到的其中通过由操作人员从可商业获取的音频循环素材中去除幻音来创建节奏模式数据的方案或方法。例如,在从中提取了节奏模式数据的数据具有MIDI格式的情况下,可通过计算机以下述方式创建节奏模式数据。计算机的CPU针对一个小节从MIDI格式数据中提取逐通道的组件声音的产生开始时刻,并去除难以判断为节奏输入的幻音(例如具有极小速度数据的这些声音)。随后,如果其中去除了幻音的MIDI格式的数据中的预定时间段内存在多个输入(比如和弦输入),则计算机的CPU通过执行用于将多个输入组织或组合成一个节奏输入的处理来自动地创建节奏模式数据。
并且,对于鼓部件,多个乐器(例如低音鼓、小鼓以及钹)的声音有时候会存在于一个通道中。在这种情况下,计算机的CPU以下述方式提取节奏模式数据。并且,对于鼓部件,乐器声音在很多情况下都固定地预先分配到各种音符编号。此处假设小鼓的音色被分配给音符编号“40”。根据这种假设,计算机的CPU通过提取分配了小鼓的音色的音符编号的各个组件声音的声音产生开始时刻,在其中记录了伴奏声音源的鼓部件的节奏模式数据中提取小鼓的节奏模式数据。
“击打强度模式数据”是其中记录了构成一个小节的乐句的各个组件声音的击打强度的数据文件;例如,击打强度模式数据是其中各个组件声音的声音产生开始时刻被描述成数值的文本文件。击打强度对应于输入节奏模式中所包含的表示了用户演奏操作的强度的速度数据。即,每个击打强度代表了乐句的组件声音的强度值。文本文件中可将击打强度描述为MIDI信息的速度数据本身。
“乐音数据”是关于基于节奏模式记录的声音本身的数据文件的名称;例如,“乐音数据”代表了具有声音文件格式(例如WAVE或MP3)的乐音数据的文件。“基调”代表了作为对乐音数据进行音高转换的基础的乐音音高(有时候简单地称为“音高”)。由于“基调”的值表示了特定八度音内的音符名称,所以“基调”实际上代表了乐音数据的音高。“流派”代表了节奏模式记录所属的音乐流派。“BPM”代表了每分钟的节拍数,更具体地代表了基于节奏模式记录中所包含的乐音数据组的声音的拍速。
“和弦”代表了乐音数据所代表的乐音的和弦的类型。这种“和弦”被设置在其演奏部件是和弦部件的节奏模式记录中。在图13A所示的示例中,“Maj7”被示出作为其“部件ID”是“02”的节奏模式记录中的“和弦”的示例。其演奏部件是“和弦”部件的节奏模式记录具有针对单个节奏模式ID的多个类型的“和弦”、以及对应于各个“和弦”的乐音数据。在图13A所示的示例中,其节奏模式ID是“020040101”的节奏模式记录具有对应于多个和弦(诸如“Maj”、“7”、“min”、“dim”、“Sus4”(未示出))的乐音数据。在这种情况下,具有相同节奏模式ID的节奏模式记录的每一个都具有除了“乐音数据”和“和弦”之外的相同的内容。在这种情况下,每个节奏模式记录可具有仅仅包括各个和弦(每个都具有相同的作为“基调”的音高)的根音的乐音数据组以及包括各个和弦的除了根音之外的各个组件声音的乐音数据组。在这种情况下,控制部分21同时再现由仅仅包括各个和弦的根音的乐音数据组以及包括各个和弦的除了根音之外的各个组件声音的乐音数据组所代表的乐音。图13A以示例的方式示出了其演奏部件是“贝司”部件的节奏模式记录;但是实际上,可以在节奏模式表格中描述对应于多个类型的演奏部件(在该情况下为和弦、乐句、低音鼓、小鼓、踩镲以及钹)的节奏模式记录,如图13A部分所示。
图13B示出了自动伴奏数据表格的示例。该自动伴奏数据表格是针对每个演奏部件定义了在自动伴奏中使用哪种条件和哪些乐音数据的表格。自动伴奏数据表格总体上以与节奏模式表格相同的方式构建。自动伴奏数据表格的第一行中描述的自动伴奏数据组包括具体相关的演奏部件的组合,并且定义了与合奏演奏中的自动伴奏相关的信息。为了与其它数据进行区分,为与合奏演奏中的自动伴奏相关的信息分配部件ID“99”、乐器类型ID“999”以及节奏模式ID“999990101”。这些值表示当前的自动伴奏数据组包括合奏的自动伴奏的数据。并且,与合奏演奏期间的自动伴奏有关的信息包括由各个演奏部件的乐音数据组的组合而合成的一个乐音数据组“Bebop01.wav”。在再现时,乐音数据组“Bebop01.wav”利用组合在一起的所有演奏部件来进行再现。注意,允许利用作为自动伴奏数据组的单个乐音数据组来演奏多个演奏部件的文件并非必需。如果没有这种文件,与自动伴奏相关的信息的“乐音数据”部分中没有描述信息。并且,在与自动伴奏相关的信息中的“节奏模式数据”和“击打强度模式数据”部分中分别描述了基于合奏的自动伴奏的乐音(即,Bebop01.wav)的节奏模式和击打强度。并且,部件ID“01”所代表的第二行中的自动伴奏数据组以及第二行之后的各行中的自动伴奏数据组代表了用户逐部件选择的内容。在该示例中,用户针对部件ID“01”至“07”的各个演奏部件来指定具体的乐器,随后“BeBop”风格中的自动伴奏数据组被用户选择。并且,在图13B所示的示例中,没有为对应于节奏乐器的演奏部件指定“基调”。但是,当将要执行乐音音高转换时,可指定作为乐音音高转换基础的乐音音高(即基本音高),从而根据所指定音高和基本音高之间的间隔来转换乐音数据的音高。
图14是信息处理装置20a以及信息处理装置周围20a的其他组件的功能布置的框图。控制部分21将构成存储于ROM或存储部分22中的应用程序的各个程序读入RAM,并执行所读出的程序以实施拍速获取部分211a、进程部分212a、通知部分213a、部件选择部分214a、模式获取部分215a、搜索部分216a、识别部分217a、输出部分218a、和弦接收部分219a以及音高接收部分220a的各功能。虽然下文描述了被上述各种部分执行的各种处理,但是执行处理的主要组件实际上是控制部分21。在下文的描述中,术语“ON-设定”指的是节奏输入装置10a的输入状态从OFF切换成ON。例如,如果键盘是节奏输入装置10a的输入部件,则术语“ON-设定”意味着键已经被按下,或者如果操作板是节奏输入装置10a的输入部件,则术语“ON-设定”意味着操作板已经被敲击、或者如果按钮是节奏输入装置10a的输入部件,则术语“ON-设定”意味着按钮已经被按下。另一方面,如果键盘是节奏输入装置10a的输入部件,则术语“OFF-设定”意味着键已经从按下状态释放,如果操作板是节奏输入装置10a的输入部件,则术语“OFF-设定”意味着对操作板的敲击已经完成,或者如果按钮是节奏输入装置10a的输入部件,则术语“OFF-设定”意味着手指已经从按钮上释放。并且,在下面的描述中,术语“ON-设定时刻”表示节奏输入装置10a的输入状态已经从OFF变成ON的时间点。换言之,“ON-设定时刻”表示节奏输入装置10a中已经产生触发数据的时间点。另一方面,术语“OFF-设定时刻”表示节奏输入装置10a的输入状态已经从ON改变成OFF的时间点。换言之,“OFF-设定时刻”表示触发数据已经在节奏输入装置10a中消失的时间点。而且,在下文描述中,术语“ON-设定信息”是在OFF-设定时刻从节奏输入装置10a向信息处理装置20a输入的信息。术语“ON-设定信息”除了上述触发数据之外还包括键盘信息的音符编号、通道信息等。
拍速获取部分211a获取用户指定的BPM,即用户指定拍速。此处,由用户利用BPM输入控件13和后面描述的BPM指定滑动器201中的至少一个来指定BPM。BPM输入控件13和BPM指定滑动器201被构造为以彼此互锁关系进行操作,由此,一旦用户使用BPM输入控件13和BPM指定滑动器201之一来指定BPM,则所指定的BPM被显示在BPM输入控件13和BPM指定滑动器201中的另一的显示部分上。一旦接收到用户通过未示出的开关而给出的拍速通知开始指令,则进程部分212a在从指令已经被接收到时的时间点开始(即,起始)的小节内使当前位置前进(演奏前进定时)。通知部分213a通知该小节内的当前位置。更具体地说,在其中以一个小节的长度为“1”来归一化每个组件声音的情况下,通知部分213a每隔几十毫秒(msec)就向模式获取部分215输出位于进程时间轴上的当前位置来作为时钟信号(下文中称为“小节线时钟信号”)一次。即,小节线时钟表示小节内当前时刻所处的位置,并且其取“0”至“1”的范围内的值。通知部分213a根据用户指定的拍速产生小节线时钟信号。
部件选择部分214a根据用户的指定从多个演奏部件中选择特定的演奏部件。更具体地说,部件选择部分214a识别包含在从节奏输入装置10输入的MIDI信息中的演奏部件识别信息是音符编号还是通道信息。随后,部件选择部分214a根据识别的信息以及包含在自动伴奏数据库(DB)222中的部件表格,确定构成乐音数据组的多个演奏部件的哪个演奏控件已经被用户操作,即构成乐音数据组的多个演奏部件的哪个部件已经被用户针对节奏模式输入而被指定,随后,部件选择部分214a选择将进行搜索处理的演奏部件的乐音数据组、节奏模式表格等。如果所接收的MIDI信息是音符编号,则部件选择部分214a将接收到的音符编号与部件表格的描述内容进行比较,从而确定贝司输入范围键盘11a、和弦输入范围键盘11b以及乐句输入范围键盘11c的哪一个对应于用户操作,随后部件选择部分214a选择相应演奏部件的乐音数据组、节奏模式表格等。此外,如果所接收的MIDI信息是通道信息,则部件选择部分214a将接收到的通道信息与部件表格的描述内容进行比较,从而确定低音鼓输入操作板12a、小鼓输入操作板12b、踩镲输入操作板12c以及钹输入操作板12d的哪一个对应于用户操作,随后部件选择部分214a选择相应演奏部件的乐音数据组、节奏模式表格等。部件选择部分214a向搜索部分216a输出与所选演奏部件相对应的部分ID。
模式获取部分215a从多个演奏部件当中获取特定演奏的输入模式。更具体地说,利用模式获取部分215a基于小节线时钟将从节奏输入装置10a输入的已经出现触发数据的各个时间点(即,各个ON-设定时刻)按每个小节来存入RAM。由此按小节存储在RAM中的一系列的ON-设定时刻构成了输入节奏模式。由于存储在RAM中的每个ON-设定时刻均基于小节线时钟,所以其和小节线时钟一样取从“0”到“1”的范围内的值。从外部源向信息处理装置20a输入的小节线时钟信号可被用作前面提到的小节线时钟信号。
为了使用户可以精确地输入每小节的节奏模式,小节线开始的时间点必须从信息处理装置20a反馈给用户。为此,仅仅需要通过按照每个小节和/或节拍(例如节拍器之类)产生声音或光或改变显示屏幕上的显示内容的信息处理装置20向用户可视地或可听地表示小节线的位置。这时,根据从通知部分213a输出的小节线时钟信号,声音输出部分26产生声音或者显示部分24产生光。可替换的,输出部分218a可以根据小节线时钟信号来可听地再现具有预先添加了咔嗒声(其每个都表示小节线的位置)的伴奏声音。在这种情况下,用户根据用户从伴奏声音源感觉到的小节线来输入节奏模式。
搜索部分216a搜索其中存储了多个乐音数据组(每个乐音数据组都包括多个乐音数据)的自动伴奏数据库222,以根据特定演奏部件的每个乐音数据组中所包括的节奏模式和输入节奏模式之间的比较结果来获取作为搜出结果的乐音数据组。此外,搜索部分216a在显示部分24上显示搜出结果,从而用户从获取的乐音数据组中选择期望的乐音数据,随后搜索部分216a将用户选择的乐音数据组登记为自动伴奏数据组中的演奏部件的自动伴奏部分数据。通过针对每个演奏部件重复这个操作,用户可以创建自动伴奏数据组。自动伴奏数据库222包括单独的乐音数据组和与多个演奏部件对应的自动伴奏数据组、以及用于管理各个数据的信息的多个表格。在乐音数据和自动伴奏数据组的再现中,输出部分218a读出从小节内的当前位置(即基于小节线时钟的数据位置)识别出的乐音数据,随后以基于与乐音数据相关联的演奏拍速与指定拍速之间的关系的速度,再现由读出乐音数据所代表的乐音,随后向声音输出部分26输出乐音再现信号。声音输出部分26可听地输出基于再现信号的声音。并且,输出部分218a在演奏再现模式和演奏循环再现模式下利用搜出并被选的乐音数据组的组件声音来控制用户的演奏操作。此外,和弦接收部分219a接收用户指定的和弦的输入。音高接收部分220a接收表示用户指定的声音的音高的乐音音高信息的输入。
下文参考图15和图16来描述在搜索功能为开启(ON)时由控制部分21所执行的根据输入节奏模式搜索自动伴奏数据组的处理的示例操作序列。图15是示出了由信息处理装置20a执行的处理的示例操作序列的流程图。一旦用户经由节奏输入装置10a的未示出的控件来指示创建自动伴奏数据组,则执行该处理程序。根据用户的指示,信息处理装置20a在程序开始之后在步骤Sa0执行初始化处理。在初始化处理中,用户使用操作部分25来指定对应于各个键范围的乐器类型以及对应于输入操作板的乐器类型,并且使用BPM输入控件13输入一个BPM。此外,控制部分21将图12、图13A和图13B所示的各种表格读入RAM。在初始化处理之后,用户使用节奏输入装置10a来指定键盘11的预定键范围的任意一个或者输入操作板12a至12d中的任何一个,即指定演奏部件,并且输入该指定部件的节奏模式。节奏输入装置10a向信息处理装置20a发送包括识别指定的演奏部件的信息的MIDI信息、识别指定乐器类型的信息、识别输入的BPM的信息、以及输入节奏模式。一旦控制部分21经由输入/输出接口部分23从节奏输入装置10a接收到MIDI信息,其执行根据图15所示的流程的处理。
首先,在步骤Sa1中,控制部分21获取用户输入的识别输入BPM的信息,并将所获取的BPM存储为将被记录在读出至RAM的自动伴奏表格中的自动伴奏数据组的BPM。随后,在步骤Sa2中,控制部分21根据包含在所接收的MIDI信息中的识别用户所选演奏部件的信息(例如音符编号或者通道信息)来获取用户所选演奏部件的部件ID,随后将所获取的部件ID作为将被记录在部件表格以及自动演奏表格中的演奏部件的部件ID存入RAM。在此假设,响应于用户利用贝司输入范围键盘11a输入节奏模式,控制部分21已经获取了“01”作为部件ID,如图12的(a)所示,随后在步骤Sa2将所获取的部件ID“01”存入RAM。
随后,一旦控制部分21根据包含在所接收的MIDI信息中的识别用户所指定的乐器类型的信息以及包含在自动伴奏数据库211中的乐器类型表格获取了用户所指定的乐器类型的乐器类型ID,则其在步骤Sa3中将所获取的乐器类型ID作为将被记录在读出的乐器类型表格以及自动演奏表格中的演奏部件的乐器类型ID存入RAM。在此假设,响应于用户利用操作部分25指定“电贝司”作为乐器类型,控制部分21已经获取了“002”作为乐器类型ID,如图12的(b)所示,并且已经将“002”作为将被记录在读出的自动演奏表格中的演奏部件的乐器类型ID存入RAM。此后,一旦控制部分21获取所接收的MIDI信息中包含的输入节奏模式,其就在步骤Sa4中将所获取的输入节奏模式存入RAM。此后,在步骤Sa5中,针对用户指定的演奏部件和乐器类型,控制部分21在自动演奏数据库222中搜索与输入节奏模式相同或相似的乐音数据组。在步骤Sa5中,执行与上文参考图5的第一实施例描述的处理相同的处理。
在图5的步骤Sb8中,根据所选的演奏部件和输入演奏模式的节奏模式表格,控制部分21从具有距输入节奏模式距离较小的节奏模式数据的乐音数据组中按照相似度距离的升序获取预定数量的乐音数据组作为搜出结果,并且控制部分21将该预定数量的乐音数据组存入RAM,随后使图5的处理结束。该“预定数量”可预先存储为存储部分22a中的参数,并且用户可利用操作部分25对其做出改变。此处,控制部分21具有过滤功能,以仅仅将其BPM接近于用户输入BPM的乐音数据组输出作为搜出结果,并且用户可通过操作部分25根据需要打开或者关闭过滤功能。当过滤功能打开时,控制部分21在步骤Sb8从搜出结果中排除其BPM与输入BPM的差异没有落入预定范围内的乐音数据组。更具体地说,控制部分21在步骤Sb8例如仅仅获取BPM处于输入BPM的(1/21/2)倍至21/2倍的范围内的乐音数据组作为搜出结果,而从搜出结果中排除其它乐音数据组。注意,系数“(1/21/2)倍”和“21/2倍”仅仅是示例性的,还可以采用其它值。
控制部分21之所以具有这种过滤功能的原因如下。第二实施例的控制部分21可利用用户输入BPM或用户指定BPM来再现被获取作为搜出结果的任意乐音数据组的乐音。如果用户输入了极其不同于乐音数据组的初始BPM的BPM,则在被声音输出部分26可听地输出时,乐音数据组的乐音可能会不合需要地向用户等给出一种不舒服的感觉。例如,假设这样一种情况,其中用户以BPM“240”的拍速输入节奏模式,并且在对具有前述节奏模式的乐音数据组进行搜索而获得的乐音数据组当中所包括的一个乐音数据组所代表的原始BPM为“60”。在这种情况下,基于在搜出结果当中包括的乐音数据组的乐音被声音输出部分26以四倍于原始BPM的BPM可听地输出,即,以四倍于原始BPM的BPM按照快速向前的方式再现基于该乐音数据组的乐音,结果就会向用户给出不舒服的感觉。并且,如果乐音数据组是WAVE或mp3格式的音频文件,则再现的声音质量可能会随着原始BPM和用户指定BPM之间的差异的增大而恶化。为了避免这种不便,第二实施例中的控制部分21具有过滤功能。
回过来参考图15,一旦在步骤Sa5完成搜索操作,控制部分21在显示部分24上显示在步骤Sb8中存储在RAM中的乐音数据组(步骤Sa6)。
图16是示出了自动伴奏数据的搜索结果的示例的示意图。更具体地说,图16示出了被控制部分21根据用户利用贝司输入范围键盘11a输入的节奏模式而获取作为搜出结果的乐音数据组被显示在显示部分24上的情况。在显示部分24的上部区域显示了BPM指定滑动器201、指定键盘202的键(音乐键)、以及和弦指定框203。例如,BPM指定滑动器201包括预定长度的凹槽部分、布置在凹槽部分中的旋钮、以及BPM显示部分。随着用户利用操作部分25来改变旋钮的位置,控制部分21在BPM显示部分上显示对应于旋钮的改变后(变成)的位置的BPM。在图16所示的示例中,显示在显示部分上的BPM随着旋钮从凹槽部分的左端朝着右端的方向移动而变得更大(更快),但是随着旋钮从凹槽部分的右端朝着左端方向的移动而变得更小(更慢)。控制部分21利用经由BPM指定滑动器201指定的BPM(下文中称为“指定BPM”)来再现用户从搜出结果中选出的一组乐音数据组中所包含的乐音数据组所代表的乐音。即,控制部分21将用户从搜出结果中选出的一组乐音数据组中所包含的乐音数据组的BPM与指定BPM同步。可选地,如果信息处理装置20与外部装置以与之同步的方式连接,则信息处理装置20可接收在外部装置中指定的BPM,并使用所接收的BPM作为指定BPM。此外,在这种情况下,可将经由BPM指定滑动器201指定的BPM可发送给外部装置。
键指定键盘202是模仿向其分配了预定音高范围(在该情况下为一个八度音)的键盘的图像,并且相应的乐音音高被分配给键指定键盘202的各个键。响应于用户经由操作部分25指定键,控制部分21获取分配给指定键的乐音音高,并且将所获取的乐音音高存入RAM。随后,控制部分利用经由键指定键盘202指定的键来再现由用户从搜出结果中选择的乐音数据组中所包含的乐音数据所代表的乐音。即,控制部分21将用户从搜出结果当中选择的乐音数据组中所包含的乐音数据的基调与指定基调同步。可替换的,如果信息处理装置20与外部装置以与之同步的方式连接,则信息处理装置20可接收在外部装置中指定的基调,并使用所接收的基调作为指定基调。此外,在这种情况下,可将经由键指定键盘202指定的基调传递给外部装置。
和弦指定框203是用于接收用户所指定的和弦的输入的输入框203。一旦用户利用操作部分25指定并输入了诸如“Maj7”之类的和弦类型,则控制部分21就将输入的和弦类型存入RAM作为指定和弦。控制部分21获取来自搜出结果的具有经由和弦指定框203指定的和弦类型的乐音数据组作为搜出结果。和弦指定框203可显示和弦名称的下拉列表,从而允许过滤显示。可替换的,如果信息处理装置20与外部装置以与之同步的方式连接,则信息处理装置20可接收在外部装置中指定的和弦,并使用所接收的和弦作为指定和弦。此外,在这种情况下,可将经由和弦指定框203指定的和弦传递给外部装置。作为和弦输入的另一种形式,可以在显示部分上以与各种和弦类型相对应关系的方式显示按钮,从而任意一个显示的和弦类型都可以通过用户点击相应一个显示按钮来指定。
如上搜出的乐音数据组的列表被显示在显示部分24的下部区域。用户可通过在前述搜出结果的列表中指定表示不同演奏部件的标签中(下文中称为“部件标签”)的任意一个来对每个演奏部件显示搜出乐音数据组的列表。如果用户已经指定了鼓的部件标签,则用户可进一步使用操作部分(在该情况下为键盘)25来按下具有为其分配的向上箭头、向右箭头和向左箭头的键中的任意一个键,响应于此,控制部分21显示与用户按下的部件标签相对应的诸如低音鼓、踩镲和钹之类的演奏部件之一的搜出结果。在部件标签中存在一个标有“再现历史”的标签,利用搜出结果的该标签,用户在这以前已经选择的并随后被可听地再现的乐音数据组被显示出来。除了前述标签之外,标有“自动伴奏数据”的标签可提供来显示自动伴奏数据组的列表,其中每个自动伴奏数据组都包括用户期望的各个演奏部件的波形数据的被登记的组合,从而用户可以随后搜索登记的自动伴奏数据组中的任意一个。
在搜出结果中,项目“次序”代表了搜出乐音数据组中与输入节奏模式的相似度的升序排列次序。项目“文件名称”代表了搜出乐音数据组的各个数据组的文件名称。项目“相似度”代表了针对搜出乐音数据组中的每一个乐音数据组的节奏模式与输入节奏模式的距离。即,“相似性”的较小值代表了与输入节奏模式的较小距离,因此代表了与输入节奏模式的较高的相似度。在显示搜出结果时,控制部分21显示乐音数据组的各个名称以及按照相似度的升序的相关信息。项目“基调”代表了针对搜出乐音数据组中的每一个的将被用于对乐音数据组进行音高转换的基本音高;注意,与节奏乐器相对应的演奏部件的乐音数据组的“基调”被显示为“未指定”。项目“流派”代表针对搜出乐音数据组中的每一个的乐音数据组所属的流派。项目“BPM”代表了针对搜出乐音数据组中的每一个的乐音数据组的BPM,更具体地是乐音数据组所代表的乐音的初始BPM。“部件名称”代表针对搜出乐音数据组中的每一个的包含在乐音数据组中的部件ID所识别的演奏部件的名称。此处,用户可在利用“基调”、“流派”和“BPM”中的至少一个对结果进行过滤之后显示搜出结果。
回过来参考图15,一旦用户选择了显示作为搜出结果的乐音数据组之一、并利用例如鼠标对所选的乐音数据组进行双击,则控制部分21将用户所选乐音数据组识别为当前正创建的自动伴奏数据组的演奏部件之一的数据组,并随后将识别的数据组记录在RAM的自动演奏数据表格的对应于该演奏部件的行中(步骤Sa7)。这时,控制部分21在搜出结果的显示屏上以不同于其它或未选乐音数据组的背景的颜色显示所选并双击的乐音数据组的背景。
随后,控制部分21从基于小节线时钟的数据位置读出在步骤Sa7中识别并在自动伴奏数据表格中登记的各个演奏部件的乐音数据,随后在根据需要而对乐音数据所代表的乐音以下列方式执行时间拉伸处理以及音高转换之后可听地再现乐音数据:使得乐音数据以基于与各个乐音数据相关联的BPM和用户指定BPM之间的关系的速度来再现乐音数据,即,使所识别的乐音数据的BPM与用户指定BPM同步(步骤Sa8)。前述输入BPM在第一次执行搜索时被用作用户指定BPM。随后,如果用户已经经由BPM指定滑动器201对照搜出结果指定了BPM,则由此指定的BPM被采用。作为替换,控制部分21可从小节线的头部而不是基于小节线时钟的数据位置读出乐音数据。
图17是说明BPM同步处理的示意图。虽然可以按照公知的方式执行时间拉伸处理,但是也可以如下执行。如果乐音数据组是WAVE、mp3等格式的音频文件,则乐音数据组的再现声音质量将随着乐音数据组的BPM和用户指定BPM之间的差异变大而劣化。为了避免这种不便,控制部分21执行如下操作。如果“(乐音数据组的BPM×(1/21/2))<(用户指定BPM)<(乐音数据的BPM×21/2)”,则控制部分21对乐音数据组执行时间拉伸处理,以使得乐音数据的BPM等于用户指定BPM(图17的(a))。而且,如果“(用户指定BPM)<(乐音数据的BPM×(1/21/2))”,则控制部分21对乐音数据组执行时间拉伸处理,以使得乐音数据的BPM等于用户指定BPM的两倍(图17的(b))。而且,如果(乐音数据的BPM×21/2)<(用户指定BPM),则控制部分21对乐音数据执行时间拉伸处理,以使得乐音数据的BPM等于用户指定BPM的一半(图17的(c))。在前述方式中,可以最小化其中乐音数据的再现声音质量将由于乐音数据的BPM和用户指定BPM之间的巨大差异而恶化的情况的可能性。注意,系数“(1/21/2)”和“21/2”仅仅是示例性的,可以是其它值。在前述方式中,在用户输入节奏模式中的ON-设定时刻和OFF-设定时刻之间的差已经由于用户长时间按下键而变大或者反过来由于用户短时间按下键而变小时,可以将被时间拉伸处理所延展的声音长度的变化保持在预定范围内。结果,可以显著地减小用户响应于输入节奏模式而从搜出结果感觉到的不舒服感,由此将给用户较少的不舒服感。
并且,当用户已经经由键指定滑动器202指定了基调时,控制部分21根据与乐音数据组相关联的基调与指定基调之间的差异来再现乐音数据组所代表的音高转换后的乐音的乐音数据组,即,使识别出的乐音数据组的基调与指定基调同步。例如,如果与乐音数据组相关联的基调是“C”而指定基调是“A”,则存在提高识别出的乐音数据组的音高以及降低识别出的乐音数据组的音高的两个可用方案。该示例实施例采用提高识别出的乐音数据组的方案,这是因为该情况所要求的音高偏移量相对较小,并且预期有较小的声音质量恶化。
图18是示出了存储在存储部分22a中的基调表格的示图。在基调表格中描述了多个基调(在每个基调中,一个八度音程由十二音阶来表示)的名称以及被连续地分配给各个基调的键号。在执行音高转换时,控制部分21参考基调表格,并通过从对应于与识别的乐音数据组相关联的基调的调编码减去与指定基调相对应的调编码来计算预定值。该预定值在下文中将被称为“基调差”。随后,如果“-6≤基调差≤6”,控制部分21对识别出的乐音数据进行音高转换,以使乐音的频率变为并且,如果“基调差>7”,则控制部分21对识别出的乐音数据进行音高转换,以使乐音的频率变为此外,如果“基调差<-7”,则控制部分21对识别出的乐音数据进行音高转换,以使由乐音数据代表的乐音的频率变为控制部分21使音高转换后的乐音数据所代表的乐音经由声音输出部分26可听地输出。前述数学表达是示意性的,它们可以是预定的以确保再现声音质量。
此外,当用户已经经由和弦指定框203指定了和弦时,控制部分21再现已经根据从搜出结果中选择的乐音数据组中的指定和弦而进行了音高转换的乐音数据。即,控制部分21在将识别出的乐音数据音高转换成指定和弦之后再现识别出的乐音数据的和弦。
一旦用户在步骤Sa8之后从搜出结果中选择并双击另一乐音数据组(步骤Sa9的肯定确定),控制部分21返回步骤Sa7。在这种情况下,控制部分21将新选择的乐音数据组识别为当前正创建的自动伴奏数据组的演奏部件之一(步骤Sa7),随后其执行步骤Sa8的操作。注意,乐音数据组可以被登记,直到它们达到自动伴奏数据组的演奏部件的预定数量。即,每个演奏部件具有可登记的乐音数据组的上限数量,例如对于鼓部件有多达四个通道、对于贝司部件有一个通道、对于和弦部件有多达三个通道等。例如,如果用户试图指定五个鼓部件,则新指定的乐音数据组将被登记来代替目前为止已再现的鼓乐音数据组。
一旦用户在步骤Sa8之后指示终止搜索处理(步骤Sa10的肯定确定)而不从搜出结果中选择另一乐音数据组(步骤Sa9的否定确定),控制部分21将自动伴奏数据表格和该表格所指定的文件组合成单个数据文件,并将该数据文件存入存储部分22(步骤Sa11),随后使处理流程结束。用户可使用操作部分25来根据需要读出存储部分2中存储的自动伴奏数据组。另一方面,如果用户还没有指示终止搜索处理(步骤Sa10的否定确定),则控制部分21回到步骤Sa1。随后,用户选择不同的演奏部件,并且经由节奏输入装置10a输入节奏模式,响应于该节奏模式执行如上所述的后续处理。因此,登记了自动演奏数据组中的不同演奏部件的乐音数据组。在上述方式中,响应于用户继续执行操作,创建自动伴奏数据组,直到完成了创建自动伴奏数据组所需的预定数量的演奏部件的登记。此外,以与当前再现的演奏部件的乐音数据组所代表的乐音重叠的方式可听地输出新选择的演奏部件的乐音数据组所代表的乐音。这时,由于控制部分21从基于小节线时钟的数据位置读出乐音数据,因此以相互同步的方式输出多个演奏部件的乐音数据组的乐音。
作为各个演奏部件的进程的形式,可以构想出下述三种变型。对于演奏前进(或进程)定时的同步控制,可以以利用类似“每小节”、“每两拍”、“每一拍”、“每八分”以及“无指定”的标准中的任一标准量化的定时,再现根据预定设置搜出的由用户指定的自动伴奏数据组。即,根据进程的第一形式,在小节的开头实现同步。在这种情况下,在用户指定每个演奏部件的伴奏之后,一旦小节线时钟信号到达相应小节的开头,就从该小节的开头位置再现乐音数据。根据进程的第二形式,在节拍的开头实现同步。在这种情况下,在用户指定每个演奏部件的伴奏之后,一旦小节线时钟信号到达相应节拍的开头,就从该节拍位置再现乐音数据。根据进程的第三形式,不实现同步。在这种情况下,紧接着在用户指定每个演奏部件的伴奏之后,从相应的进程位置再现乐音数据组。进程形式的这种变型的设置预先存储在存储部分22中,从而用户可以经由操作部分25读出任意一个期望的预存设置。
根据本发明的第二实施例,如上所述,可以从根据用户期望乐音模式搜出的与自动伴奏相关的乐音数据组中识别出至少最靠近用户期望乐音模式的特定乐音数据组。这时,用户在选择了与多个演奏控件相关的不同演奏部件中的期望的一个演奏部件之后输入节奏模式,因此,如果用户点击针对特定演奏部件的演奏模式,则用户可通过选择特定演奏部件并输入点击的节奏模式来执行搜索。此外,由于用户仅仅必须选择演奏部件、输入节奏模式以及将任意搜出结果登记为各个演奏部件的演奏,所以第二实施例允许用户自发有效地创建自动伴奏数据组。并且,由于以相互同步的方式再现用户从搜出自动伴奏数据组中选择的自动伴奏数据,所以用户可自发并有效地获取合奏的自动伴奏的声音。
接下来将描述本发明的第三实施例。
<第三实施例>
(风格数据搜索***)
<结构>
本发明的第三实施例是被构建成本发明的音乐数据处理***的示例的用于搜索风格数据组的***。除了自动伴奏数据库222中存储了风格数据组并包括用于搜索风格数据组的风格表格之外,第三实施例的结构类似于上述第二实施例。
如第二实施例一样,本示例实施例中的风格数据被读入电子乐器、音序器等,从而用作例如所谓的自动伴奏数据组。首先,下面说明了在本示例实施例中采用的风格数据以及相关数据。
每个风格数据组包括为各不同风格(例如“Bebop01”、“HardRock01”以及“Salsa01”)搜集的并且被组合成多个分段(一至若干个小节)(每个分段都是伴奏模式的最小单位)的每一个的分段数据的伴奏声数据片段的集合,并且风格数据组被存入存储部分22中。在本示例实施例中,在每个分段中提供了多个类型的分段,例如类似“前奏(intro)”、“主奏(main)”、“加花(fill-in)”和“尾奏(ending)”之类的结构类型以及类似“正常”、“变调1”和“变调2”之类的模式类型。并且,每个分段的风格数据包括针对低音鼓、小鼓、踩镲、钹、乐句、和弦以及贝司演奏部件中的每一个以MIDI格式来描述的演奏数据的识别符(节奏模式ID)。对于风格数据组的每个分段,控制部分21针对每个部件分析演奏数据的节奏模式,从而与分析结果相对应的内容被登记在风格表格中。例如,对于贝司部件的演奏数据,控制部分21通过利用预定基本音高来分析演奏数据中的乐音音高的时间序列,随后其将对应于分析结果的内容登记在风格表格中。并且,对于和弦部件的演奏数据,控制部分21通过利用预定基本和弦来分析演奏数据中使用的和弦,随后其将诸如“Cmaj7”之类的和弦信息作为与分析结果对应的内容,登记在后面将要描述的和弦前进信息表格中。
此外,本示例实施例包括分段前进信息以及与各个风格数据组具有对应关系的和弦前进信息。该分段前进信息是用于以时序方式从类型数据组中指定各分段的信息。和弦前进信息是用于以时序方式顺序指定将要根据音乐片段演奏的前进而演奏的和弦的信息。一旦选择了某个风格数据组,就根据所选的风格数据组和分段前进信息及所选风格数据组对应的和弦前进信息,将数据登记在分段前进信息表格以及和弦前进信息表格中。可替换的,可响应于用户的指定来选择各个分段,而不使用分段前进信息。作为另一替换方案,可通过经由键盘11输入的声音来识别和弦信息,而不使用和弦前进信息,从而可根据识别出的和弦信息来再现伴奏。和弦信息包括表示根音以及和弦类型的信息。
以下描述风格数据的结构。图19A和图19B是与风格数据相关的表格的示例。首先,下文简要描述风格表格、分段前进信息、和弦前进信息等。
图19A是示出了风格表格的示例的示图,其中示出了“流派”是“Swing&Jazz”的多个风格数据组。每个风格数据组都包括多个项目,例如“风格ID”、“风格名称”、“分段”、“基调”、“流派”、“BPM”、“音乐拍子”、“贝司节奏模式ID”、“和弦节奏模式ID”、“乐句节奏模式ID”、“低音鼓节奏模式ID”、“小鼓节奏模式ID”、“踩镲节奏模式ID”以及“钹节奏模式ID”。“风格ID”是唯一地识别风格数据组的识别符,并且“风格名称”也是唯一地识别风格数据组的识别符。
在风格数据表格中,具有某一风格名称的风格数据组包括被分成多个片段的多个分段,例如,前奏(前奏-Ⅰ(正常)、前奏-Ⅱ(变调1)、前奏-Ⅲ(变调2))、主奏(主奏-A(正常)、主奏-B(变调1)、主奏-C(变调2)、主奏-D(变调3))以及尾奏(end01(正常)、end02(变调1)、end03(变调2))。每个片段都具有正常模式和变调模式,即,“分段”代表了具有某一名称的每个风格所属的分段。例如,一旦用户选择风格名称为“Bebop01”的风格并指示再现该风格,则控制部分21根据风格名称为“Bebop01”的风格数据组中的其分段是前奏-正常模式“Ⅰ”的风格数据组,来再现乐音,随后根据其分段是main-正常模式“A”的风格数据组来重复地再现乐音预定次数,随后再现基于其分段是尾奏-正常模式“1”的风格数据组的乐音。在前述方式中,控制部分21根据所选风格的风格数据组按照部分各分段的顺序来再现乐音。“基调”表示作为用于对风格数据进行音高转换的基础的乐音音高。虽然“基调”在示例性示例中由音符名称指示,但是其实际上代表了乐音音高,这是因为其表示了特定八度音程中的音符名称。“流派”代表了风格数据组所属的音乐流派。“BPM”代表了对基于风格数据组的声音进行再现的拍速。“音乐拍子(musical time)”代表了风格数据组的音乐拍子的类型,例如三拍(triple time)或四拍(quadruple time)。一旦在演奏期间给出了变调改变指令,则将演奏切换成相应分段的变调模式。
在每个风格数据组中,部件专用节奏模式ID以一对一的关系与各个演奏部件关联。在图19A所示的示例中的风格ID是“0001”的风格数据组中,“贝司节奏模式ID”是“010010101”。这意味着,在图13A的节奏模式表格中:(1)部件ID是“01”(贝司)、节奏模式ID是“010010101”、节奏模式数据是“BebopBass01Rhythm.txt”以及乐音数据是“BebopBass01Rhythm.wav”的节奏模式记录、与(2)风格ID是“0001”的风格数据组相互关联。对于贝司部分之外的其它演奏部件的节奏模式ID,在各个风格数据组中描述了与上面类似的关联。一旦用户选择了某一风格名称的风格数据组并指示对所选风格数据组进行再现,控制部分21就以相互同步的方式对与所选风格数据组中包含的各个演奏部件的节奏模式ID相关联的乐音数据进行再现。对于每个风格数据,构成风格数据组的各个演奏部件的节奏模式ID的组合是预定的,从而该组合指定了彼此很好地相互适合的节奏模式记录。例如,可根据不同演奏部件的节奏模式记录具有风格BPM、具有相同音乐基调、属于相同流派和/或具有相同的音乐拍子的因素来预定“彼此很好地相互适合的节奏模式记录”。
图19B的(a)示出了分段前进信息表格的示例。
分段前进信息表格是包括用于根据音乐片段演奏的前进来以时序方式从风格数据组中依次指定各分段的分段前进信息的组合的表格。如图19B的(a)的示例所示,每个分段前进信息可包括风格ID、用于指定风格的风格指定数据St、用于指定分段的分段信息Sni、表示每个分段的开始时间和结束时间(通常以每小节为基础)位置的分段开始/结束定时数据Tssi和Tsei(i=1,2,3...)、以及表示分段前进信息的最终结束位置的分段前进结束数据Se,并且例如,这种分段前进信息被存储在存储部分22中。即,每个区信息Sni都指定了与相应分段相关联的数据的存储区域,并且位于分段信息Sni之前和之后的定时数据Tssi和Tsei指示了基于指定分段的伴奏的开始和结束。因此,使用分段前进信息,可以从风格指定数据St所指定的伴奏风格数据组中指定由定时数据Tssi和Tsei的组合所重复的分段。
图19B的(b)示出了和弦前进信息表格的示例。
和弦前进信息表格是包括用于根据音乐片段演奏的前进来以时序方式依次指定将被执行的和弦的和弦前进信息的组合的表格。如图19B的(b)的示例所示,每个和弦前进信息可包括:风格ID、基调信息Key、和弦名称Cnj、用于定义和弦名称Cnj的和弦根音信息Crj、和弦类型信息Ctj、表示和弦的开始和结束时间位置(通常以节拍表示)的和弦开始和结束定时数据Tcsj和Tcej(j=1,2,3...)、以及表示和弦前进信息的最终结束位置的和弦前进结束数据Ce,并且例如,这些和弦前进信息被存储在存储部分22中。此处,由两个信息Crj和Ctj定义的和弦信息Cnj指示了将根据分段信息Sni所指定的分段的和弦演奏数据来演奏的和弦的类型,并且位于该分段之前和之后的定时数据Tsci和Tcei指示了和弦的演奏的开始和结束。因此,使用这样的和弦前进信息,可以通过在由基调信息Key指定了音乐基调之后重复指定的定时数据Tsci和Tcei的组合来依次指定将被演奏的和弦。
注意,虽然按小节或节拍来设定了分段前进信息和和弦前进信息的定时,但是可根据需要使用任意其它期望的定时;例如,可根据时钟定时来设定分段前进信息以及和弦前进信息的定时,并且从音乐片段的小节开头开始的时钟定时数量可用作各种定时数据。并且,在给定分段Sni或和弦Cnj之后刚好开始下一区Sni+1或和弦Cnj+1的情况下,可以省略开始定时Tss+1或Tcei+1的结束定时Tsei或Tcei。并且,在本示例实施例中,分段前进信息以及和弦前进信息混合地存储在主音轨中。
下文简要地解释了从分段信息和和弦前进信息获取期望演奏声音的方法。控制部分21从分段前进信息读出由依次读出的分段信息Sni指定的各分段的伴奏风格指定数据St和伴奏声音数据片段(例如,“Bebopo1”的“Main-A”),并随后将读出的伴奏数据风格指定数据St和伴奏声音数据片段存储在RAM中。此处,根据基本和弦(例如“Cmaj”)存储与各个部分相关的数据。存储部分22包含其中具有用于根据基本和弦将伴奏声音数据片段转换成基于期望和弦的声音的期望转换规则的转换表格。随着依次从和弦进程表格读出的期望和弦信息Cnj(例如“Dmaj”)被提供给控制部分21,基于基本和弦的伴奏声音数据片段被根据转换表格转换成基于读出的期望和弦信息Cnj的声音。声音输出部分26输出由此转换的声音。每次从分段前进信息读出的部分信息改变成另一个时,提供给控制部分21的伴奏声音数据片段就改变,从而可听地产生的声音改变。而且,每次从和弦前进信息读出的和弦信息改变成另一个,转换规则就改变,从而可听地产生的声音改变。
<动作>
图20是本发明第三实施例中的信息处理装置20所执行的处理的流程图。在图20中,步骤Sd0至Sd5的操作类似于在第二实施例中执行的图15的步骤Sa0至Sa5的上述操作。在第三实施例的步骤Sd6中,控制部分21显示其中在步骤Sd5中搜出的与模式记录相同的模式ID被设置为任意演奏部件的节奏模式ID的风格数据组。
图21是示出了搜出风格数据组或搜索结果的示例的示意图。图21的(a)示出了在被控制部分21根据用户经由和弦输入范围键盘11b输入的节奏模式而输出作为搜出结果之后显示在显示部分24的风格数据。在图21的(a)至(c)中,项目“相似度值”代表了输入节奏模式与搜出风格数据组的每个节奏模式之间的相似度距离。即,“相似度值”代表的较小的值表示搜出风格数据组的节奏模式具有与输入节奏模式较高的相似度。如图21的(a)所示,以“相似度值”(即,步骤Sb7中计算出来的距离)的升序(即,以与输入节奏模式的相似度的降序)显示了风格数据组。此处,用户可在利用项目“基调”、“流派”和“BPM”中的至少一个而过滤结果之后显示搜出结果。并且,用户输入节奏模式的BPM(即输入BPM)被显示在搜出结果上方的输入BPM显示部分301上。在搜出结果上方,还显示了用户利用输入BPM过滤搜出风格数据组的拍速过滤器302,以及用于利用指定音乐拍子来过滤搜出风格数据组的音乐拍子过滤器303。此外,可显示项目“和弦”、“音阶”以及“音色”,从而可在用户已经指定了“和弦”项目时利用在和弦部件中使用的和弦来执行过滤、在用户已经指定了“音阶”项目时利用在创建风格数据所使用的基调来执行过滤、以及/或者在用户已经指定了“音色”项目时利用各个演奏部件的音色来执行过滤。
控制部分21具有用于仅仅输出BPM接近用户输入BPM的风格数据作为搜出结果的过滤功能,并且用户可根据需要经由操作部分25将过滤功能的ON或OFF设置在搜出结果上显示的拍速过滤器302中。更具体地说,每个风格数据具前面提到的自己的BPM,因此,当过滤功能为ON时,控制部分21可显示与每个具有例如输入BPM的(1/21/2)”至(21/2)倍的范围内的BPM的多个风格数据组有关的信息,作为搜出显示结果。注意,前面提到的应用至输入BPM的系数(1/21/2)”至(21/2)仅仅是示例性的,可以是其它值。
图21的(b)示出了其中用户已经从图21的(a)所示的状态打开过滤功能的状态。在图21的(b)中,控制部分21正使用系数(1/21/2)”至(21/2)来执行过滤。即,在图21的(b)中,由于输入BPM为“100”,因此具有处于71至141的范围内的BPM的风格数据组被显示为过滤结果。这样,用户可获取BPM接近输入BPM的风格数据组作为搜出结果,从而用户具有对搜出结果更满意的感觉。
并且,通过经由操作部分25向音乐拍子过滤器303输入表示期望音乐拍子的信息,例如4-4(4/4)拍,用户可执行过滤,从而使表示与输入音乐拍子信息相关的风格数据组的信息被显示为搜出结果。注意,不仅可以通过缩窄至指定音乐拍子的风格数据组来提取风格数据组,而且可以通过缩窄至与指定音乐拍子相关的之前成组的音乐拍子的风格数据组来提取风格数据组。例如,在指定了四拍时,不仅可以提取缩窄至四拍的风格数据组,而且可以提取可以容易地经由四拍节拍器输入的两拍和六八拍的风格数据组。
并且,用户可通过首先指定演奏部件来搜索具有与输入演奏模式接近的节奏模式的风格数据组(第一搜索)、并随后指定另一演奏部件且输入节奏模式来再次搜索风格数据组(第二搜索),来获取由第一搜出风格数据缩窄的第二搜出结果。在这种情况下,搜出结果中的相似度距离是第一搜索中指定的演奏部件中的相似度的值与第二搜索中指定的演奏部件中的相似度的值之和。例如,图21的(c)示出了作为在正在显示图21的(a)的搜出结果的状态下用户指定踩镲部分作为演奏部件并输入节奏模式的结果而显示的内容。并且,在图21的(c)中,输入至音乐拍子过滤器303的音乐拍子信息为“4/4”的风格数据组作为搜出结果被显示。图21的(c)中的“相似度值”是通过将其中对象或目标演奏部件是“和弦”的情况中的相似度值和其中对象演奏部件是“踩镲”的情况的相似度值加和而获取的“相似度值”。虽然图21示出了可利用由项目“第一搜索部件”和“第二搜索部件”所表示的两个演奏部件来执行搜索,但是能够被指定用于搜索目的的演奏部件的数量并不受限。并且,如果用户在指定了演奏部件之后输入指定了不同于第一次指定的演奏部件(第一搜索部件)的不同演奏部件(第二搜索部件)的节奏模式,则控制部分21可仅仅输出采用(指定)第二搜索部件的搜出结果,而不管采用(指定)第一搜索部件的搜出结果(这种类型的搜索将被称为“覆写搜索”)。用户可以利用信息处理装置20的操作部分25在缩窄搜索和覆写搜索之间进行切换。
可以按照不同于前述方式的任意其它方式来执行其中指定了多个不同演奏部件的搜索。例如,当用户已经在指定多个演奏部件的同时执行了演奏操作时,可执行下述处理。即,控制部分21计算具有由用户指定的每个演奏部件的部件ID的节奏模式记录与每个演奏部件的输入节奏模式之间的相似度值。随后,控制部分21将针对每个指定的演奏部件的节奏模式记录计算的相似度值加入与节奏模式记录相关联的每个风格数据组。随后,显示部分24以所加入的相似度距离的升序(即,从所加入的最小距离的风格数据组开始(即,从与输入节奏模式最相近的风格数据开始))来显示风格数据。例如,当用户已经同时针对低音鼓和小鼓部件通过执行演奏操作而输入了节奏模式时,控制部分21计算低音鼓和小鼓各自的相似度值。这样,用户可以同时指定多个部件来搜索具有以与用户期望节奏模式的相似度值满足预定条件的节奏模式构建的乐句的风格数据组。
一旦用户在图21的(a)至(c)中任一个的图示示例中经由操作部分25选择了任意期望的风格数据组,控制部分21就识别用户所选的风格数据组(步骤Sd7)并在显示部分24上显示所识别出的风格数据组的配置显示屏。
图22是示出风格数据配置显示屏的示例的示图。在此假设用户已经从搜出结果中选择了风格名称为“Bebop01”的风格数据组。所选风格数据组的风格名称、基调、BPM以及音乐拍子被显示在再现屏幕的上部区域中,表示分段(分段标签)401的标签被显示在再现屏幕的中间区域中,任一标签所表示的分段的各个演奏部件的信息被展开并被显示在各个音轨中。在每个演奏部件的信息中,不仅显示了各个节奏模式记录中的BPM、节奏模式和基调,而且显示每个演奏部件的节奏模式,其中音轨中的向右前进的水平轴被设置为时间轴,并且其中显示在与各个声音产生时刻相对应的位置处显示预定图像402,其中图像402的显示区域的左端被设置为演奏开始时刻。此处,每个图像402以在配置显示屏的垂直方向上具有预定维度的条状进行显示。一旦用户经由操作部分25选择了期望的一个分段标签401,控制部分21根据所选标签的分段的风格数据组来再现节奏模式(步骤Sd8)。
注意,在配置显示屏上,可以登记、编辑、确认和检查演奏数据、用户创建的原始风格数据组、以及包含在现有和原始风格数据组中的演奏数据。
信息处理装置20a可响应于用户在风格数据配置显示屏上操作未示出的控件而给出的再现开始指令来再现风格数据组。可以按照三种再现模式(自动伴奏模式、替换搜索模式以及跟随搜索模式)的任意一种来实现风格数据组的再现。用户可通过使用操作部分25在三种模式间进行切换。在自动伴奏模式中,基于所选风格数据组的演奏数据被再现,但是用户还可利用节奏输入装置10a和操作部分25来执行演奏操作,从而使基于演奏操作的声音与基于所选风格数据组的乐音一起输出。控制部分21还具有静音功能,从而用户可使用操作部分25来使静音功能对期望演奏部件起作用,由此可防止期望演奏部件的演奏数据被可听地再现。在这种情况下,用户自己可以在将未静音的演奏部件像伴奏声音源一样聆听的同时,针对静音的演奏部件执行演奏操作。
在替换搜索模式中,控制部分21响应于用户在经由操作部分25指定了期望的演奏部件之后向节奏输入装置10a输入节奏模式,执行下述处理。在这种情况下,控制部分21利用从基于输入节奏模式的搜出结果中选出的演奏数据,替换包含在当前正再现的风格数据组的之前组合的演奏数据中的指定演奏部件的演奏数据。这时,一旦用户在指定了期望的演奏部件之后经由节奏输入装置10a输入了节奏模式,控制部分21就针对指定的演奏部件执行前述搜索处理,随后在显示部分24上显示类似图16的搜出结果。一旦用户选择了特定的一个搜出结果,则控制部分21就利用所选演奏数据来替换包含在当前正再现的风格数据中的指定演奏部件的演奏数据。这样,用户可利用基于其输入节奏模式的演奏数据来替换从搜出结果中选择的风格数据组的期望演奏数据的演奏数据。因此,用户不仅可以获取预先组合的风格数据组,而且可以获取其中反映了每个演奏部件的每个区的期望节奏模式的风格数据组,由此用户通过使用信息处理装置20a,不仅可以执行搜索,而且可以进行音乐制作。
此外,在跟随搜索模式中,响应于用户自己在将未静音的演奏部件像伴奏声音源一样聆听的同时针对利用静音功能静音的演奏部件执行演奏操作,控制部分21针对未对其执行演奏操作的每个演奏部件来搜索很适合于已经对其执行了演奏操作的部件的输入节奏模式的演奏数据。“很适合于输入节奏模式的演奏数据”可以是预定的,例如,基于与输入节奏模式具有同样基调、属于同一流派、以及具有相同音乐拍子,和/或具有处于距输入BPM预定范围内的BPM的因数来进行预定。一旦控制部分21从很适合于输入节奏模式的演奏数据中识别出具有最小相似度值(即,最大程度的相似)的演奏数据,其以相互同步的方式再现这些数据。因此,即使用户对搜出结果存在很低的满意感,用户也可以通过在指定了演奏部件之后对输入节奏模式进行输入来再现适合于其输入节奏模式的风格数据。
一旦用户在步骤Sd8之后经由操作部分25选择了另一风格数据(步骤Sd9的肯定确定),控制部分21回到步骤Sd7。在这种情况下,控制部分21识别新选择的风格数据(步骤Sd7),并在显示部分24上显示所识别的风格数据组的再现屏幕。随后,一旦用户在步骤Sd8后指示终止搜索处理(步骤Sd10的肯定确定)而未经由操作部分25选择另一风格数据,则控制部分21使处理结束。
根据第三实施例,如上所述,用户通过执行演奏操作以针对所选演奏部件输入节奏模式,不仅可获取特定演奏部件的乐音数据组,而且可获取包括与输入节奏模式类似的节奏模式的乐音数据组和很适合于输入节奏模式的乐音数据组的组合的部件风格数据组。并且,用户可利用与不同于第一输入节奏模式的另一输入节奏相似的乐音数据组来替换搜出风格数据组中包含的期望演奏部件的乐音数据组。这样,用户可使用信息处理装置20a来执行搜索以及音乐制作。
<修改>
除了下面提到的一些例外之外,本发明的上述实施例可进行如下修改。在需要时可对下述修改进行组合。
<修改1>
虽然上述第一实施例被构建成在循环再现模式或演奏循环再现模式中将一个乐句记录被输出作为搜出结果,但是本发明并不限于此。例如,在重新排列了该多个乐句记录之后,节奏模式搜索部分213可输出与用户输入节奏模式的相似度大于预定值的多个乐句记录作为搜出结果所述多个乐句记录。在这种情况下,将被输出作为搜出结果的乐句记录的数量可预存为ROM中的常数,或预存为存储部分22中的变量以便可由用户来改变。例如,如果将被输出作为搜出结果的乐句记录的数量是五个,则五个乐句记录的各个乐句乐音数据组的五个名称以列表形式显示在显示部分24上。随后,基于用户所选的一个乐句记录的声音从声音输出部分26可听地输出。
<修改2>
在能够播放更大范围的乐音音高的乐器类型的情况中,有时候乐句乐音数据组的各组件声音的基调(乐音音高)以及包括外部声音源的伴奏的基调(乐音音高)可能彼此不一致。为了对付这种不一致,控制部分21可被构建成能够响应于用户经由操作部分25执行必要操作而改变乐句乐音数据组的任意组件声音的基调。并且,可经由操作部分25或控件(操作器)(例如布置在节奏输入装置10上的衰减器、旋钮或者转盘)来实现这种基调改变。作为另一替换方案,表示组件声音的基调(乐音音高)的数据可预先存储在节奏DB 221和自动伴奏DB 222中,从而一旦用户改变了任一组件声音的基调,则控制部分21可将改变后的基调是什么告知给用户。
<修改3>
在一些乐音数据组中,波形的幅度(功率)并不是必须在组件声音的结尾附近的值“0”的周边结束,在这种情况下,在基于组件声音的声音的可听输出之后趋于产生削波噪声(clip noise)。为了避免这种不期望的削波噪声,控制部分21可具有用于自动渐强或渐弱组件声音的开始或结尾的周边中的预定区域的功能。在这种情况下,允许用户经由布置在操作功能或节奏输入装置10上的一些控件来选择是否应用渐强或渐弱。
图23是示出了其中向乐句乐音数据组的各个声音施加了渐弱方案的示例的示意图。如图23所示,将渐弱应用至由标以“渐弱”的箭头所表示的乐句乐音数据组的部分,从而每个箭头识别的部分的波形的幅度逐渐地减小,从而在相应组件声音的结束时间取大致“0”的幅度。其上应用了渐弱的时间段处于几个msec至几十个msec的范围内,并且可根据用户需求来调节。用于应用渐弱的操作可执行为针对用户演奏操作的预处理或准备。
<修改4>
控制部分21可记录由于用户执行演奏操作而获取的乐句,从而可以以声音源循环素材中一般采用的文件格式输出记录内容。在音乐片段再现中,例如,如果用户期望的节奏模式没有存储在节奏DB 221中、但是演奏处理部分214具有用于记录用户演奏的功能,则用户可以获取图像中与用户期望乐句乐音数据组非常接近的乐句数据组。
<修改5>
控制部分21可设置多个乐句乐音数据组而不是仅仅一个乐音数据组作为再现对象,从而多个乐音数据组可输出为重叠声音。在这种情况下,例如,可在显示部分24上显示多个音轨,从而用户可以将不同的乐句乐音数据组和再现模式分配给各显示音轨。这样,例如,在循环再现模式下,用户可以将康加鼓的乐音数据组分配给音轨A,从而康加鼓乐音数据组在循环再现模式下被可听地再现为伴奏,并且将非洲鼓的的乐音数据组分配给音轨B,从而非洲鼓乐音数据组在演奏再现模式下被可听地再现为伴奏。
<修改6>
作为又一种修改,可在与搜出乐音数据组中的与用户通过演奏操作输入的速度数据相关联的触发数据具有相同声音产生时刻的组件声音(下文中称为“组件声音A”)的击打强度极大地不同于该速度数据(例如,超过预定阈值)的情况下执行下述替换处理。在这种情况下,演奏处理部分214利用从击打强度基本对应于用户输入的速度数据的多个组件声音中随机选择的组件声音来替换组件声音A。在这种情况下,用户可以经由布置在操作部分25或节奏输入装置10上的一些控件来选择是否执行该替换处理。这样,用户可以获取更加接近用户自己执行的演奏处理的输出结果。
<修改7>
虽然上文参考乐句乐音数据组具有诸如WAVE或mp之类的文件格式的情况描述了除了第三实施例之外的实施例,但是本发明并不限于此,并且乐句乐音数据组可以是例如具有MIDI格式的序列数据组。在这种情况下,在存储部分22中以MIDI格式存储文件,并且与声音输出部分26相对应的结构起到MIDI乐音发生器的作用。具体地说,如果乐音数据组在第二实施例中具有MIDI格式,则类似于时间拉伸处理的处理在基调转变和音高转换时是不必要的。因此,在这种情况下,一旦用户经由基调指定键盘202指定了基调,则控制部分21将乐音数据所代表的MIDI信息中所包含的基调指示信息,改变成指定基调。并且,在这种情况下,记录在节奏模式表格中的每个节奏模式记录不需要包含与多个和弦相对应的乐音数据。一旦用户经由和弦指定键盘203指定了和弦,则控制部分21将乐音数据所代表的MIDI信息中所包含的和弦指示信息,改变成指定和弦。因此,即使乐音数据组是MIDI格式的文件,也可以实现与上述实施例相同的有利效果。并且,在第三实施例中,可以使用采用音频数据的风格数据组。在这种情况下,风格数据组在基本结构上类似于在第三实施例中使用的风格数据组,但是不同于第三实施例中使用的风格数据组之处在于各个演奏部件的演奏数据被存储为音频数据。可替换的,每个包括MIDI数据和音频数据的组合的风格数据组可被采用。
<修改8>
虽然已经将控制部分21描述成通过经由用户演奏操作输入的触发数据与存储在节奏DB 221或自动伴奏DB 222中的节奏模式数据之间的比较来检测特定乐句记录或节奏模式记录,但是本发明并不限于此。例如,控制部分21可利用经由用户演奏操作输入的触发数据和速度数据两者来搜索节奏DB 221和自动伴奏DB 222。在这种情况下,如果存在具有相同节奏模式的两个乐音数据组,则两个乐音数据组中的其中每个组件声音的击打强度比另一个乐音数据组更接近经由用户演奏操作输入的速度数据的一个乐音数据组被检测为搜出结果。在这种情况下,同样对于击打强度,非常接近用户想象的乐音数据组的乐句乐音数据组可被输出作为搜出结果。
——节奏模式之间的差异的计算方法——
上述实施例中的节奏模式之间的差异的计算方法仅仅是示例性的,可以按照与上述实施例不同方式或利用不同方法来计算差异。
<修改9>
例如,可以在识别了输入节奏模式所落入的节奏类别并仅仅使用属于所识别的节奏类别的乐句记录作为计算对象之后执行步骤Sb6处的节奏模式差异计算以及步骤Sb7处的节奏模式距离计算,从而与输入节奏模式的节奏类别相匹配的乐句记录可以可靠地输出为搜出结构。由于这种修改配置可降低所需计算的数量,所以该修改不仅实现了对信息处理装置20的更低的负担,而且降低了对用户的响应时间。
——小于基准的差异被当成零或者被校正为小值——
<修改10>
在上述步骤Sb6中计算节奏模式之间的差异时,可执行下述操作。即,在修改10中,针对其与输入节奏模式的ON-设定时刻之间的时间差的绝对值小于阈值的节奏模式(即,将与输入节奏模式进行比较的节奏模式)的每个ON-设定时刻,控制部分21将时间差的绝对值看作是并非用户手动操作输入所期望的一个值,并且将差值校正为“0”或校正为小于初始值的值。例如,阈值是值“1”,并且被预存在存储部分22a中。假设输入节奏模式的ON-设定时刻是“1,13,23,37”并且将要比较的节奏模式的ON-设定时刻是“0,12,24,36”。在这种情况下,各个ON-设定时刻之间的差异的绝对值被计算为“1,1,1,1”。如果阈值是“1”,则控制部分21通过将每个ON-设定时刻的差异的绝对值乘以系数α来执行校正。系数α取“0”至“1”的范围内的值(在该情况下取“0”)。因此,在这种情况下,各个ON-设定时刻的差异的绝对值被校正为“0,0,0,0”,从而控制部分21将两个节奏模式间的差计算为“0”。虽然系数α可以是预定的并被预存在存储部分22a中,但是其中系数α的值与两个节奏模式之间的差异水平相关联的校正曲线可预存在存储部分22a中,以便能够根据校正曲线来确定系数α。
——差异大于基准的ON-设定时刻不用于计算——
<修改11>
在上述步骤Sb6中计算节奏模式之间的差异时,可执行下述操作。即,在修改11中,针对其与输入节奏模式的ON-设定时刻之间的时间差的绝对值大于阈值的节奏模式(即,将与输入节奏模式进行比较的节奏模式)的每个ON-设定时刻,控制部分21在计算中不使用该ON-设定时刻,或将该差异校正为小于初始值。因此,即使在用户已经仅针对一个小节的前半部分或后半部分输入了节奏模式时,也利用节奏模式输入的被用作搜索对象的小节的前半部分或后半部分进行搜索。从而,即使在每个在一个小节内均具有相同节奏模式的节奏模式记录未包含在自动伴奏DB 222中时,用户在一定程度上也可以获取与输入节奏模式相似的节奏模式记录作为搜出结果。
——考虑速度模式差异——
<修改12>
在上述步骤Sb6中计算节奏模式之间的差异时,可以采用考虑了速度模式差异的计算方案或方法。假设输入节奏模式是“节奏模式A”同时节奏模式记录中描述的节奏模式是“节奏模式B”,则按照下述操作步骤序列来计算节奏模式A与节奏模式B之间的差异。
(11)控制部分21利用节奏模式A的ON-设定时刻作为计算基础来计算节奏模式A中的每个ON-设定时刻与节奏模式B的ON-设定时刻之间的时间差的绝对值。
(12)控制部分21计算在上述步骤(11)计算出的所有时间差的绝对值之和。
(13)控制部分21计算节奏模式A中的每个ON-设定时刻处的速度数据与节奏模式B的相应ON-设定时刻处的击打强度之间的差异的绝对值,随后计算所有这些绝对值的和。
(14)控制部分21利用节奏模式B的ON-设定时刻作为计算基础,计算节奏模式B的每个ON-设定时刻与节奏模式A中最接近节奏模式B的ON-设定时刻的ON-设定时刻之间的时间差的绝对值。
(15)控制部分21计算在上述步骤(14)计算出的所有时间差的绝对值之和。
(16)控制部分21计算节奏模式B中的每个ON-设定时刻处的速度数据与节奏模式A的相应ON-设定时刻处的击打强度之间的差异的绝对值,随后计算所有这些绝对值的和。
(17)控制部分21根据下述数学表达式(1)来计算节奏模式A与节奏模式B之间的差异:
节奏模式A与节奏模式B之间的差异=[α×{步骤(12)计算出的所有时间差的绝对值之和+步骤(15)计算出的所有时间差的绝对值之和}/2]+[(1-α)×{步骤(13)计算出的所有速度差异的绝对值之和+步骤(16)计算出的所有速度差异的绝对值之和}/2] ......数学表达式(1)
在上述数学表达式(1)中,α是满足0<α<1的预定系数,并且被预存在存储部分22a中。用户可经由操作部分25来改变系数α的值。例如,在搜索节奏模式时,用户可根据是否向ON-设定时刻一致程度或速度一致程度给予优先权来设置系数α的值。这样,用户可在考虑速度的情况下获取搜出结果。
——考虑持续时间模式差异——
<修改13>
在上述步骤Sb6中计算节奏模式之间的差异时,可以采用考虑了持续时间模式差异的计算方案或方法。假设输入节奏模式是“节奏模式A”同时节奏模式记录中描述的节奏模式是“节奏模式B”,则按照下述操作步骤序列来计算节奏模式A与节奏模式B之间的差异水平。
(21)控制部分21利用节奏模式A的ON-设定时刻作为计算基础来计算节奏模式A中的每个ON-设定时刻与节奏模式B中最接近节奏模式A中的ON-设定时刻的ON-设定时刻之间的时间差的绝对值。
(22)控制部分21计算在上述步骤(21)计算出的所有时间差的绝对值之和。
(23)控制部分21计算节奏模式A中的每个ON-设定时刻处的持续时间模式与节奏模式B中的相应ON-设定时刻处的持续时间模式之间的差异的绝对值,随后计算所有这些绝对值之和。
(24)控制部分21利用节奏模式B的ON-设定时刻作为计算基础,计算节奏模式B的每个ON-设定时刻与节奏模式A中最接近节奏模式B的ON-设定时刻的ON-设定时刻之间的时间差的绝对值。
(25)控制部分21计算在上述步骤(24)计算出的所有时间差的绝对值之和。
(26)控制部分21计算节奏模式B中的每个ON-设定时刻处的持续时间模式与节奏模式A的相应ON-设定时刻处的持续时间模式之间的差异的绝对值,随后计算所有这些绝对值的和。
(27)控制部分21根据下述数学表达式(2)来计算节奏模式A与节奏模式B之间的差异:
节奏模式A与节奏模式B之间的差异=[β×{步骤(22)计算出的所有时间差的绝对值之和+步骤(25)计算出的所有时间差的绝对值之和}/2]+[(1-β)×{步骤(23)计算出的所有持续时间差的绝对值之和+步骤(26)计算出的所有持续时间差的绝对值之和}/2] ......数学表达式(2)
在上述数学表达式(2)中,β是满足0<β<1的预定系数,并且被预存在存储部分22a中。用户可经由操作部分25来改变系数β的值。例如,在搜索节奏模式时,用户可根据是否向ON-设定时刻一致程度或持续时间模式一致程度给予优先权来设置系数β的值。这样,用户可在考虑持续时间的情况下获取搜出结果。
前面已经解释了计算节奏模式之间的差异的方式或方法的变型。
——计算节奏模式之间的距离的方法——
计算节奏模式之间的距离的前述方式或方法仅仅是示例性的,可以按照与以上不同的方法来计算节奏模式之间的距离。下面描述用于计算节奏模式之间的距离的方法的变型。
——向两个节奏模式的各自的和施加系数——
<修改14>
在第一至第三实施例的步骤Sb7中,如上所述,控制部分21通过将步骤Sb4中针对节奏类别计算的相似度距离乘以步骤Sb6中计算节奏模式之间的差,来计算节奏模式之间的距离。但是,如果相似度距离和所述差之一是“0”,则节奏模式之间的距离可能被计算为“0”,其中未反映相似度距离和所述差中的另一个的值。因此,作为修改,控制部分21可根据下述数学表达式(3)来计算节奏模式之间的距离:
节奏模式之间的距离=(步骤Sb4中针对节奏类别计算出的相似度距离+γ)×(步骤Sb6中计算出的节奏模式之间的差+δ) ......数学表达式(3)
在数学表达式(3)中,γ和δ是预存在存储部分22a中的预定常数。在此,γ和δ仅仅需要是适当小的值。这样,即使步骤Sb4中针对节奏类别计算出的相似度距离以及节奏模式之间的差之一具有值“0”,也可以计算出反映节奏模式之间的相似度距离以及差中的另一个的值的节奏模式之间的距离。
——使用乘以常数的节奏模式的值的和——
<修改15>
步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改15中,控制部分21在步骤Sb7中根据下述数学表达式(4)来计算节奏模式之间的距离:
节奏模式之间的距离=ε×步骤Sb4中针对节奏类别计算出的相似度距离+(1-ε)×步骤Sb6中计算出的节奏模式之间的差 ......数学表达式(4)
在上述数学表达式(4)中,ε是满足0<ε<1的预定系数。系数ε被预存在存储部分22a中,用户可经由操作部分25来改变系数ε的值。例如,在搜索节奏模式时,用户可根据是否向针对节奏类别计算的相似度距离或节奏模式之间的差异给予优先权来设置系数ε的值。这样,用户可获取更期望的搜出结果。
——拍速接近输入节奏模式的拍速的节奏模式的距离被计算为小值——
<修改16>
步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改16中,控制部分21在步骤Sb7中根据下述数学表达式(5-1)来计算节奏模式之间的距离:
节奏模式之间的距离=(步骤Sb4中针对节奏类别计算出的相似度距离+步骤Sb6中计算出的节奏模式之间的差)×з×|输入BPM-节奏模式记录的BPM| ......数学表达式(5-1)
在上述数学表达式(5-1)中,з是满足0<з<1的预定系数。系数з被预存在存储部分22a中,用户可经由操作部分25来改变系数з的值。例如,在搜索节奏模式时,用户可根据向BPM中的差异给予多大的优先权来设置系数з的值。这时,控制部分21可从搜出结果中排除其BPM与输入BPM的差异大于预定阈值的每个节奏模式记录。这样,用户可在考虑BPM的情况下获取更满意的搜出结果。
并且,作为上述数学表达式(5-1)的另一示例,可以采用下述数学表达式:
节奏模式之间的距离=(步骤Sb4中针对节奏类别计算出的相似度距离+步骤Sb6中计算出的节奏模式之间的差)+з×|输入BPM-节奏模式记录的BPM| ......数学表达式(5-2)
与上述数学表达式(5-1)类似,上述数学表达式(5-2)中的з是满足0<з<1的预定系数。系数з被预存在存储部分22a中,用户可经由操作部分25来改变系数з的值。在使用数学表达式(5-2)的情况下,例如如果常数з被设置成相当小的值,则以以下方式输出搜出结果:使得基本上更接近输入节奏模式的节奏模式早于不那么接近输入节奏模式的节奏模式输出,并且还按照与输入节奏模式的拍速的接近程度的降序来显示与输入节奏模式一致的节奏模式。
——以使得音色接近输入节奏模式的音色的节奏模式的距离被计算为小值的方式进行校正——
<修改17>
步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改17中,控制部分21将可应用至步骤Sb7的前述表达式的任意一个的右侧乘以输入节奏模式时指定的音色和将与输入节奏模式比较的节奏模式的音色之间的一致程度。注意,可以按照任意已知方式来计算所述一致程度。在此假设较小的一致程度值表示两个节奏模式在乐音音高方面彼此更接近、而较大的一致程度值表示两个节奏模式在乐音音高方面彼此不那么接近。这样,用户可以容易地获取音色靠近用户在输入节奏模式时感觉到的音色的节奏模式记录,作为搜出结果,因此,用户对搜出结果具有更满意的感觉。
作为考虑了音色的搜索的示例具体方案,可以考虑下述方案。首先,预先在风格表格中与各演奏部件的音色ID相关地描述在各个演奏部件中使用的音色数据(具体地,音色的各个程序编码和MSB(最高有效位)和LSB(最低有效位))。用户在指定了音色数据之后经由操作部分25输入节奏模式。随后,控制部分21执行控制以使对应于与指定音色数据一致的音色数据的风格数据组被容易地输出作为搜出结果。可替换地,其中以音色ID为基础而关于音色ID描述了各个乐音数据的相似度的数据表格被预存在存储部分22中,并且控制部分21可搜索与指定音色数据具有高相似度的音色数据的音色ID的风格数据组。
——以使得流派更接近输入节奏模式的流派的节奏模式的距离被计算为小值的方式进行校正——
<修改18>
步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改18中,用户可在输入节奏模式时通过操作部分25来指定流派。在修改18中,控制部分21将可应用至步骤Sb7的前述表达式的任意一个的右侧乘以节奏模式输入时指定的流派和将与输入节奏模式比较的节奏模式的流派之间的一致程度。在此,流派可阶梯式或层次化地归类为主流、中流和次流。控制部分21可以以下方式计算流派一致程度:使得与指定流派一致的节奏模式记录或包括指定流派的节奏模式记录与输入节奏模式之间的距离变小,或者使得与指定流派不一致的节奏模式记录或不包括指定流派的节奏模式记录与输入节奏模式之间的距离变大;随后,控制部分21可对将在步骤Sb7中使用的数学表达式进行校正。这样,用户可以更容易地获取与用户在输入节奏模式时指定的流派一致的节奏模式记录或包括指定流派的节奏模式记录,作为输出结果。
前面已经解释了计算节奏模式之间的距离的方式或方法的变型。
——计算输入节奏模式与节奏类别之间的距离的方法——
前述计算输入节奏模式与节奏模式之间的距离的方法仅仅是示例性的,可以按照任意其他不同的方式或任意其他不同的方法来计算该距离,如下所述。
——对于类别唯一的输入间隔的数量——
<修改19>
在修改19中,控制部分21根据将与输入节奏模式比较的节奏模式的或者对于该节奏模式唯一的包含在输入节奏模式中的ON-设定时刻间隔符号的数量来计算输入节奏模式与每个节奏模式之间的距离。图24是示出了预存在存储部分22中ON-设定时刻间隔表格的示例的示图。ON-设定时刻间隔表格包括表示节奏类别的归类的名称以及各个节奏类别的目标ON-设定时刻间隔的组合。注意,利用以划分成48个相等的时间片段的一个小节归一化的ON-设定时刻间隔预先确定ON-设定时刻间隔表格的内容。
在此假设控制部分21已经由输入节奏模式的ON-设定时刻计算了ON-设定时刻间隔,随后作为对所计算出的ON-设定时刻间隔执行量化处理而计算了以下述(d)表示的一组值。
(d)12,6,6,6,6,6
根据所计算出的一组值以及图24所示的ON-设定时刻间隔,控制部分21识别出在输入节奏模式中存在一个四分(-音符)ON-设定时刻间隔以及五个八分(-音符)ON-设定时刻间隔。随后,控制部分21如下地计算输入节奏模式与每个节奏类别之间的距离:
输入节奏模式与节奏类别N之间的距离=1-{(输入节奏模式中的节奏类别N的相关ON-设定时刻间隔的数量)/(输入节奏模式中的ON-设定时刻间隔的总数)} ......数学表达式(6)
注意,上述数学表达式仅仅是示例性的,可以采用任意其它数学表达式,只要其能使节奏类别与输入节奏模式的距离被计算为随着节奏类别包含更多的目标ON-设定时刻间隔而更小的值即可。并且,利用上述数学表达式(6),控制部分21例如将输入节奏模式与八分(-音符)节奏模式之间的距离计算成“0.166”,或者将输入节奏模式与四分(-音符)节奏模式之间的距离计算成“0.833”。按照前述方式,控制部分21计算输入节奏模式与每个节奏类别之间的距离,并且确定输入节奏模式属于所计算出的距离在节奏类别当中最小的特定节奏类别。
——DB节奏类别与输入节奏类别之间的矩阵——
<修改20>
用于计算输入节奏模式与节奏类别之间的距离的方法并不限于上述方法,可以修改如下。即,在修改20中,在存储部分22中预存距离基准表格。图25是示出了距离基准表格的示例的示图,其中输入节奏模式所属的节奏类别与存储在自动伴奏数据库222中的各个节奏模式记录所属的类别之间的距离由矩阵结构表示。在此假设控制部分21已经确定输入节奏模式所属的节奏类别是八分(即八分音符)节奏类别。在这种情况下,控制部分21根据已经确定的输入节奏模式所属的节奏类别以及距离基准表格来识别输入节奏模式与各个节奏类别之间的距离。例如,在这种情况下,控制部分21将输入节奏模式与四分(四分音符)节奏类别之间的距离识别为“0.8”,将输入节奏模式与八分(八分音符)节奏类别之间的距离识别为“0”。因此,控制部分21确定出八分节奏类别与输入节奏模式之间的距离最小。
——基于对于类别唯一的输入时刻以及分数——
<修改21>
用于计算输入节奏模式与节奏类别之间的距离的方法并不限于上述方法,可以修改如下。即,在修改21中,控制部分21根据输入节奏模式中的将与输入节奏模式比较的节奏类别的符号或对于将与输入节奏模式比较的节奏类别唯一的ON-设定时刻的数量来计算输入节奏模式与每个节奏类别之间的距离。图26是示出了预存在存储部分22a中的ON-设定时刻表格的示例的示图。ON-设定时刻表格包括表示节奏类别的分类的名称、各个节奏类别中的主体或目标ON-设定时刻、以及其中输入节奏包括目标ON-设定时刻的情况下将被添加的分数的组合。注意,利用以划分成48个相等的时间片段的一个小节归一化的方式预先确定ON-设定时刻间隔表格的内容。
在此假设控制部分21已经获得了下述(e)所示的ON-设定时刻。
(e)0,12,18,24,30,36,42
在这种情况下,控制部分21计算输入节奏模式相对于每个节奏类别的分数。在此,控制部分21将“8”计算为输入节奏模式相对于四分节奏类别的分数,将“10”计算为输入节奏模式相对于八分节奏类别的分数,将“4”计算为输入节奏模式相对于八分三连音节奏类别的分数,将“7”计算为输入节奏模式相对于十六分节奏类别的分数。随后,控制部分21将所计算出的分数最大的节奏类别确定为与输入节奏模式具有最小距离的节奏类别。
上文已经描述了用于计算输入节奏模式与节奏类别之间的距离的方法的变型。
——利用乐音音高模式的搜索——
<修改22>
可以在指定了演奏部件之后根据用户输入的乐音音高模式来执行搜索。为了便于描述,将参考上述第二实施例和第三实施例来描述修改的搜索。在下面修改22的描述中,图13A所示的节奏模式表格中的项目名称“节奏模式ID”被称为“模式ID”。并且,在修改22中,项目“乐音音高模式数据”被添加至图13A的节奏模式表格中。乐音音高模式数据是其中记录了随着构成小节的乐句中的各个组件声音的音高的时间序列而存在的变调的文本数据的数据文件。例如,乐音音高模式数据是其中记录了随着构成小节的乐句中的各个组件声音的音高的时间序列而存在的变调的文本数据文件。此外,如上所述,除了触发数据外,ON-设置信息包括键盘的音符编号(notenumber)。触发数据中的ON-设定时刻的序列对应于输入节奏模式,并且键盘的音符编号的序列对应于输入音高模式。此处,信息处理装置20可利用任意一个公知方法来搜索乐音音高模式。例如,当用户已经在将“和弦”指定为演奏部件之后输入“C-D-E”的乐音音高序列时,信息处理装置20的控制部分21将具有代表了相对数值“0-2-4”所表示的序列的乐音音高进程的乐音音高数据的节奏模式记录输出作为搜出结果。
并且,例如,当用户已经在将“乐句”指定为演奏部件之后输入“D-D-E-G”的乐音音高序列时,控制部分21产生表示输入音高模式的MIDI信息。控制部分21将节奏模式表格中包含的乐音音高记录中的具有与MIDI信息相同或类似的乐音音高模式的乐音音高模式记录输出作为搜出结果。用户可经由信息处理装置20的操作部分25在利用乐音音高模式的这种搜索和利用节奏模式的搜索之间进行切换。
——指定了节奏模式和乐音音高模式两者的搜索——
在利用或指定由用户在指定了演奏部件之后输入的节奏模式而执行的搜索的结果中,乐音音高模式中与输入节奏模式更类似的节奏模式可输出作为搜出结果。为了便于描述,将参考上述第二实施例和第三实施例来描述该修改。在修改23中,节奏模式表格中的每个节奏模式记录不仅仅包括各个演奏部件的“模式ID”以及“乐音音高模式数据”。
图27是利用乐音音高模式的搜索处理的示意说明图,在图27的(a)和(b)中,水平轴代表经过的时间,垂直轴代表各种乐音音高。在修改23中,下述处理被添加至图5的上述搜索处理流程。在此假设用户已经操作贝司输入范围键盘11a来输入四分(-音符)节奏中的乐音音高模式“C-E-G-E”。例如由一系列音符编号“60,64,67,64”来代表输入的音高模式。图27的(a)代表了这种乐音音高模式。由于此处的演奏部件是“贝司”,所以节奏模式搜索部分214将部件ID是“01(贝司)”的乐音音高模式记录识别为比较对象,并且计算出被识别为比较对象的这些乐音音高模式记录中的每一个中所包含的乐音音高模式数据与输入的音高模式的差异。
控制部分21计算输入音高模式与部件ID是“01(贝司)”的乐音音高模式记录中的每一个中所包含的乐音音高模式数据所代表的乐音音高模式之间的乐音音高间隔方差;后一乐音音高模式在下文中将被称为“声源乐音音高模式”。这基于这样的想法:在乐音音高间隔差异中方差越小,则可以认为两个旋律模式更相似。在此假设输入音高模式如上所述由“60,64,67,64”代表,并且给出的声源乐音音高模式由“57,60,64,60”代表。在图27的(b)中,输入音高模式和声源乐音音高模式被一起示出。在这种情况下,可根据数学表达式(8)通过计算按照下面数学表达式(7)算出的乐音音高间隔的平均值来计算输入音高模式和声源乐音音高模式之间的乐音音高间隔方差。
{(|60-57|)+(|64-60|)+(|67-64|)+(|64-60|)}/4=3.5
......数学表达式(7)
{(|3.5-3|)2+(|3.5-4|)2+(|3.5-3|)2+(|3.5-4|)2}/4=0.25
......数学表达式(8)
如上述数学表达式所示,
由“60,64,67,64”代表的输入音高模式与由“57,60,64,60”代表的声源乐音音高模式之间的乐音音高差异的方差被计算为0.25。控制部分21针对所有声源乐音音高模式计算这种乐音音高间隔方差。
接下来,在步骤Sb7,控制部分21在考虑了输入节奏模式与搜出节奏模式的乐音音高模式的情况下获取它们之间的相似度。如果在不考虑输入节奏模式与每个搜出节奏模式的乐音音高模式的情况下将它们之间的相似度定义为“S”,并且乐音音高差异的方差被定义为“V”,则在考虑了输入节奏模式与每个搜出节奏模式的乐音音高模式的情况下的它们之间的相似度Sp可以利用变量x和常数y(其中0<x<1且y>1)以下述数学表达式(9)表示:
Sp=(1-x)S+xyV ......数学表达式(8)
如果变量x为“0”,则上述数学表达式变成“Sp=S”,所算出的相似度将不会反映乐音音高模式。随着变量x趋近于值“1”,通过上述数学表达式得到的相似度将反映更多的乐音音高模式。用户可通过操作部分25来改变变量x的值。并且,在数学表达式(9)中,乐音音高差异的平均误差可用来代替乐音音高差异的方差。这样,控制部分21以在考虑了乐音音高模式的情况下计算出来的搜出节奏模式与输入节奏模式之间的相似度的降序(即,距离的升序),重新排布搜出的节奏模式;随后将重新排布的搜出节奏模式存入RAM。
并且,输入音高模式的ON-设定时刻和ON-设定的数量以及组成声源乐音音高模式的各个音符的ON-设定时刻和ON-设定的数量没有必要彼此一致。在这种情况下,控制部分21根据下述操作步骤序列,针对输入音高模式的每个ON-设定来确定声源乐音音高模式的哪一个音符对应于输入音高模式的该ON-设定。
(31)控制部分21利用输入音高模式的各个音符的ON-设定时刻作为计算基础,计算输入音高模式的每个音符的ON-设定与声源乐音音高模式的最接近输入音高模式的该音符的ON-设定的ON-设定时刻的一个音符之间的乐音音高差异。
(32)控制部分21利用声源乐音音高模式的各个音符的ON-设定时刻作为计算基础,计算声源乐音音高模式的每个音符与输入音高模式的最接近声源乐音音高模式的该音符的ON-设定的ON-设定时刻的该音符之间的乐音音高差异。
(33)随后,控制部分21计算步骤(31)中计算出的差异与步骤(32)中计算出的差异之间的平均值,作为输入音高模式和声源乐音音高模式之间的乐音音高差异。
注意,为了降低必要计算的数量,可仅仅利用上述步骤(31)和(32)中的任意一个来计算输入音高模式和声源乐音音高模式之间的乐音音高差异。还要注意,用于在考虑了输入节奏模式与每个搜出节奏模式的乐音音高模式的情况下计算它们之间的相似度的方法并不限于上述方法,可以为了该目的而采用其它任何适合的方法。
并且,如果将相应乐音音高之间的差异的绝对值除以“12”,则不仅可以搜出与输入音高模式本身相似的伴奏,而且可以搜出在12-乐音的乐音音高模式下与输入音高模式相似的伴奏。下文描述了其中乐音音高由音符编号表示、并且在“36,43,36”的乐音音高模式A和“36,31,36”的乐音音高模式B之间进行比较的情况。虽然两个乐音音高模式彼此不同,但是这两个模式代表了音符编码“G”在两个模式之间相差一个八度音程的同一组件声音“C,G,C”。因此,乐音音高模式A(“36,43,36”)和乐音音高模式B可被看成是相似的乐音音高模式。控制部分21根据下面的数学表达式(10)和(11)来在乐音音高模式A和乐音音高模式B之间计算12-乐音的乐音音高模式中的差异。
(|36-36|/12)+(|43-31|/12)+(|36-36|/12)=0
......数学表达式(10)
(|0-0|^2)+(|0-0|^2)+(|0-0|^2)=0
......数学表达式(11)
由于乐音音高模式A和B在12-乐音的乐音音高变调模式下彼此一致,所以乐音音高模式A和B之间在12-乐音的乐音音高模式下的相似度被计算为“0”。即,在这种情况下,乐音音高模式B被输出为与乐音音高模式A最相似的乐音音高模式。如果不仅与输入音高模式本身的相似度而且针对输入音高模式的12-乐音的乐音音高变调模式均如上地考虑,则用户甚至可以具有更满意的感觉。
此外,可根据考虑了的输入节奏模式本身以及12-乐音的乐音音高变调模式两者而确定的相似度值来输出搜出结果。该情况下使用的数学表达式被表示为如下述数学表达式(13):
输入音高模式本身以及12-乐音的乐音音高变调模式两者都被考虑时的节奏模式中的相似度=(1-X)×(节奏模式中的相似度)+XY{(1-κ)(乐音音高模式中的相似度)+κ(12-乐音的乐音音高变调模式中的相似度)} ......数学表达式(13)
其中,X、Y和κ是满足0<X<1、Y>1且κ<0的预定常数。注意,上述数学表达式仅仅是示例性的,而不必如此限制地进行理解。
在上述方式中,不仅接近用户期望的节奏模式而且接近用户期望的乐音音高模式的节奏模式记录可输出作为搜出结果。因此,用户可获取不仅在节奏模式上与输入节奏模式相同而且在乐音音高模式上与输入节奏模式不同的节奏模式记录,作为输出结果。
——采用触发数据以及速度数据两者的搜索——
<修改24>
控制部分21可利用响应于用户的演奏操作而产生的触发数据以及速度数据两者来在节奏DB(数据库)221和自动伴奏DB 222中进行搜索。在这种情况下,如果存在两个具有极其相似的节奏模式的节奏模式数据,则控制部分21将击打强度模式数据中描述的各个组件声音的击打强度更接近响应于用户的演奏操作而产生的速度数据的节奏模式数据输出作为搜出结果。按照这种方式,同样对于击打强度,接近用户图像的自动伴奏数据组可被输出为搜出结果。
<修改25>
此外,在节奏DB 221和自动伴奏DB 222中搜索时,除了触发数据和速度数据之外,控制部分21还可以使用表示可听地产生同一声音继续或持续的时间长度的持续时间数据。每个组件声音的持续时间数据由通过从OFF-设定时刻中减去刚好在组件声音的OFF-设定时刻之前的ON-设定时刻而计算出的时间长度来表示。具体地说,在其中节奏输入装置10的输入构件是键盘的情况下,可以非常有效地使用持续时间数据,这是因为持续时间数据允许信息处理装置20清楚地获取组件声音的OFF-设定时刻。在这种情况下,项目“持续时间模式数据”被添加至乐句表格以及节奏模式表格。持续时间模式数据值诸如文本文件之类的其中记录了构成一个小节的乐句的各个组件声音的持续时间(可听产生时间长度)的数据文件。在这种情况下,信息处理装置20可被构建成利用用户输入的一个小节的持续时间模式来搜索乐句表格,并从乐句表格或节奏模式表格中输出持续时间模式数据最类似于(或最接近)用户输入的持续时间模式的乐句记录或节奏模式记录,作为搜出结果。因此,即使存在具有相似节奏模式的多个乐句记录或节奏模式记录,信息处理装置20也可以从相似节奏模式中识别并输出具有连奏、断奏(跳跃感)等的特定节奏模式。
——搜索在音色方面与输入节奏模式相似的自动伴奏数据组——
<修改26>
信息处理装置20可搜索包括与输入节奏模式的音色相同或高相似度的音色的乐句的自动伴奏数据组。例如,为了该目的,识别将采用的音色的识别信息可预先与各个节奏模式数据关联;在这种情况下,当用户将要输入节奏模式时,用户指定音色以使得节奏模式可以缩窄至将以相应音色可听地产生的节奏模式,随后可从缩窄的节奏模式中搜出具有高相似度值的特定节奏模式。为了便于描述,将参考上述第二实施例和第三实施例来描述该修改26。在这种情况下,项目“音色ID”被加入节奏模式表格。在经由任意演奏控件来输入节奏模式时,用户指定音色,例如经由操作部分25指定音色;可经由节奏输入装置10中布置的任意控件来执行音色的指定。一旦用户执行演奏操作,就在执行演奏操作时将用户所指定音色的ID输入至信息处理装置20作为MIDI信息的一部分。随后,信息处理装置20比较基于输入音色ID的声音的音色和基于包含在节奏模式表格中的指定演奏部件的每个节奏模式记录中的音色ID的音色,并且如果已经根据比较结果确定了进行比较的音色为预定对应关系,则信息处理装置20识别出该节奏模式记录与输入节奏模式相似。所述对应关系是预定的,以使得所比较的两个音色可根据比较结果而被识别成具有相同乐器类型,并且所述预定对应关系被预存在存储部分22a中。可以按照任意已知方式来进行前述音色比较,例如通过比较各个声音波形的频谱。在前述方式中,就指定演奏部件来说,用户可获取不仅与输入节奏模式在节奏模式上相似、而且与输入节奏模式在音色上也相似的自动伴奏数据。针对这种搜索的示例具体方法总体上与参考修改17描述的方法相同。
<修改27>
虽然上述实施例被描述成在输入时刻间隔柱状图和声音产生时刻间隔柱状图之间的差异的绝对值是最小时确定出声音产生时刻间隔柱状图具有与输入时刻间隔柱状图的高相似度值,但是用于确定两个柱状图之间的高相似度值的条件并不限于两个柱状图之间的差异的绝对值,并且可以是任意合适的条件,例如两个柱状图之间的关联程度(例如两个柱状图的各自的时间间隔分量的乘积)最大或者大于预定阈值的条件,两个柱状图之间的差异的平方最小或者小于预定阈值的条件,或者各个时刻间隔分量在两个柱状图之间具有相似值的条件等。
<修改28>
虽然已经参考信息处理装置20搜索并提取具有与经由节奏数据装置10输入的节奏模式相似的节奏模式的乐音数据组、并且将搜出的乐音数据组转换成用于可听输出的声音的情况描述了上述实施例,但是还可以采用下述修改的配置。例如,在上述实施例所执行的处理由Web服务执行的情况下,信息处理装置20在上述实施例中处理的功能由提供Web服务的服务器设备来处理,并且诸如pC之类的作为客户设备的个人终端将输入的节奏模式经由因特网、专用线路等传递给服务器设备。基于从客户设备接收到的输入节奏模式,服务器设备在存储部分中搜索具有与输入节奏模式相似的节奏模式的乐音数据组,随后将搜出结果或搜出的乐音数据组发送至其终端。随后,终端基于从服务器设备接收的乐音数据组可听地输出声音。注意,在这种情况下,可将小节线时钟信号呈现给Web网站或服务器设备提供的应用程序的用户。
<修改29>
节奏输入装置10中的演奏控件可以是并非鼓操作板类型或键盘类型的类型,例如弦乐器类型、管乐器类型或按钮类型,只要其响应于用户的演奏操作而至少输出触发数据即可。可替换的,演奏控件可以是平板电脑、智能手机、具有触摸板的便携或移动电话等。
现在考虑其中演奏控件是触摸板的情况。在一些情况下,在触摸板的屏幕上显示多个图标。如果乐器的图像以及乐器的控件(例如键盘)被显示在图标中,则用户可以知道应该触摸哪一个图标以可听地产生基于特定乐器或特定乐器控件的乐音。在这种情况下,显示图标的触摸板区域对应于上述实施例中提供的各个演奏控件。
——可利用原始BPM而非指定BPM的再现——
<修改30>
由于在上述第二和第三实施例中每个节奏模式记录都包括表示原始BPM的信息,所以控制部分21可被布置成响应于用户经由操作部分25执行的操作来利用原始BPM再现节奏模式记录中包含的乐音数据组所代表的乐音。并且,一旦用户从搜出结果选择了特定节奏模式记录、并且控制部分21识别出这样选择的节奏模式记录,则控制部分21可执行控制以使得以用户输入的或用户指定的BPM,在紧跟随着所选节奏模式记录的被识别出之后的阶段,再现由节奏模式记录中包含的乐音数据组所代表的乐音,随后BPM随着时间的过去而逐渐接近节奏模式记录的原始BPM。
<修改31>
用于使用户对搜出结果具有满意感觉的方法并不限于上述过滤功能。
——对与BPM差异的相似度的加权——
为了便于描述,将参考上述第二实施例和第三实施例来描述该修改31。例如,可向用于计算输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离的数学表达式施加基于输入BPM与节奏模式表格中包含的节奏模式记录的原始BPM之间的差异的加权。假设“a”代表预定常数,“L”代表输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离,则用于利用施加的加权计算相似度的数学表达式可表达如下:
相似度=L+|输入BPM-节奏模式记录的BPM|/a
......数学表达式(14)
但是,注意,用于计算这种相似度的数学表达式并不限于上述数学表达式(14),可以采用任意其它数学表达式,只要相似度随着输入BPM和节奏模式记录的BPM彼此更接近而下降(即,相似度增大)即可。
<过滤的变型>
虽然如上述实施例那样可采用过滤以便通过用户经由下拉列表指定显示的特定对象来缩窄显示结果,但是可替换的,可通过对从节奏模式的输入获取的演奏信息的自动分析来自动缩窄显示结果。并且,可根据表示经由键盘等输入的节奏的音高的音高演奏信息来识别和弦类型或音阶,从而以识别的和弦类型或音阶登记的伴奏可自动地显示为搜出结果。例如,如果已经利用类似摇滚的和弦输入了节奏,则可以容易地搜出摇滚类型。并且,如果已经以类似中东(Middle-East-like)的音阶输入了节奏,则可以容易地搜出类似中东的乐句。可替换的,可以基于表示经由键盘输入时指定的音色的音色信息来执行搜索,以使得能够搜出具有与输入音色信息相同的音色信息、以及具有与输入节奏相同的节奏模式的伴奏。例如,如果已经利用对小鼓进行鼓边敲击而输入了节奏,则可以从与输入节奏具有相同节奏模式的候选中优先显示鼓边敲击音色的演奏。
——经由键盘而非操作板输入的鼓——
<修改32>
如果节奏输入装置10不包括上述第二和第三实施例中的输入操作板12,则节奏输入装置10可如下配置。在此,作为缺省,贝司输入范围键盘11a、和弦范围键盘11b以及乐句输入范围键盘11c被分配给键盘11的各个预定键范围。一旦用户指示用户将要输入针对鼓部件的节奏模式,则控制部分21将鼓部件分配给键盘11的预定键范围;例如,控制部分21将贝司鼓部件分配给“C3”,将小鼓部件分配给“D3”,将踩镲部件分配给“E3”,以及钹部件分配给“F3”。注意,在这种情况下,控制部分21可将不同的乐器乐音分配给位于键盘11的整个键范围中的各个控件(即各个键)。并且,控制部分21可显示键盘11的各个控件(键)上方和/或下方的所分配的乐器的图像(例如,小鼓等的图像)。
——允许用户容易地可视识别演奏部件的控件——
<修改33>
第二和第三实施例可如下配置,以允许用户容易地可视识别应该操作哪个控件来执行对特定演奏部件的搜索。例如,控制部分21在预定的每个控件(键)的上方或下方显示所分配的演奏部件的图像(例如对于和弦演奏而按下的吉他的图像、正演奏单乐音的钢琴的图像(例如被手指按下的单个键的图像)、或者小鼓的图像)。上述图像可显示在显示部分24上,而不是预定控件(键)的上方或下方。在这种情况下,不仅在显示部分24上显示例如模拟键盘11的键盘图像,而且还在显示部分24上显示在与实际键盘11上的状态相同的分配状态下分配给键盘图像的各个键范围的演奏部件的图像。可如下地进行替换布置,以允许用户容易地可听识别应该操作哪个控件来使控制部分21执行对特定演奏部件的搜索。例如,一旦用户对乐音输入范围键盘11a进行输入,控制部分21就使声音输出部分26输出贝司声音。在前述方式中,用户可以可视地或者可听地识别出应该操作哪个控件来使控制部分21执行对特定演奏部件的搜索,因此有助于用户的输入操作;从而,用户可以更容易地获取任意期望的伴奏声音源。
——搜索计算:可改变的处理顺序——
<修改34>
虽然上文已经参考了其中在针对每个节奏类别计算了ON-设定时刻间隔的分布(步骤Sb1)之后计算输入节奏模式中的ON-设定时刻间隔的分布(步骤Sb3)的情况描述了图5的处理流程,步骤Sb1和Sb3的处理顺序可进行反转。并且,不管步骤Sb1和Sb3的处理顺序的反转,控制部分21在计算之后都可将针对每个节奏类别计算的ON-设定时刻间隔的分布存储在存储部分22中。这样,控制部分21没有必要重新计算一次计算的结果,这就可以实现提高的处理速度。
——和弦的取齐(rounding)——
<修改35>
根据上述第一至第三实施例,当用户在预定时间段通过操作多个控件来输入节奏模式时,例如当用户按下贝司输入范围键盘11a以输入和弦时,可造成下述问题。在此假设用户已经在一个小节内的“0.25”时间点输入了节奏。在这种情况下,即使用户试图在同一时间点操作多个控件,但用户实际上仅仅可以在“0.25”的ON-设定时刻操作一些控件,而在“0.26”的ON-设定时刻操作其它控件,其中控制部分21可刚好在这些ON-设定时刻存储输入的节奏模式。结果,可能不期望地输出不同于用户期望的搜出结果;因此,不能向用户提供良好操作性。为了便于描述,下文将参考上述第二实施例和第三实施例来描述下述配置。
在修改35中,控制部分21根据从节奏输入装置10输入的ON-设定信息以及自动伴奏DB 211中包含的部件表格,确定是否在同一时间点针对同一演奏部件对多个控件执行了用户操作。例如,如果贝司输入范围键盘11a中包含的一个控件的ON-设定时刻与贝司输入范围键盘11a中包含的另一个控件的ON-设定时刻之间的差异落入预定时间段内,则控制部分21确定已经在同一时间点操作了这些控件。在此,例如预定时间段是50msec(毫秒)。随后,控制部分21与具有上述ON-设定时刻的触发数据相关联地向控制部分21输出确定结果,即,表示多个控件可被看作在同一时间点***作的信息。随后,控制部分21在从输入节奏模式中排除了具有表示比其它触发数据的ON-设定时刻晚的声音产生开始时刻的ON-设定时刻的一个触发数据(其与表示多个控件被看成是已经在同一时间点***作的信息相关联)之后,利用输入节奏模式来执行节奏模式搜索。即,在这种情况下,在预定时间段内的基于用户操作的ON-设定时刻中,表示较早的声音产生开始时刻的ON-设定时刻将被用于节奏模式搜索。但是,可替换的,在预定时间段内的基于用户操作的ON-设定时刻中,表示较晚的声音产生开始时刻的ON-设定时刻将被用于节奏模式搜索。即,控制部分21可利用基于预定时间段内的用户操作的ON-设定时刻的任意一个来执行节奏模式搜索。作为另一替换方案,控制部分21可计算基于预定时间段内的用户操作的ON-设定时刻的平均值,随后利用由此计算出来的平均值作为该预定时间段内的用户操作的ON-设定时刻来执行节奏模式操作。按照前述方式,即使用户已经在预定时间段内利用多个控件输入了节奏,也可以输出接近用户意图的搜出结果。
——第一节拍缺失问题的解决方案——
<修改36>
如果控制部分21以每小节为基础将用于存储输入节奏模式的定时设置为与基于小节线时钟的小节切换定时一致,就会产生下列问题。例如,当通过用户操作输入节奏模式时,用户期望的节奏模式与实际的ON-set时刻之间会由于用户所感觉的时刻间隔与小节线时钟信号之间的差异可能出现几个msec至几十个msec范围内的误差。因此,即使用户认为正在小节的开头输入节拍,但是由于上述误差,该节拍可能被错误地当成是前一小节的节奏输入。在这种情况下,可能不期望地输出不同于用户意图的搜出结果;因此,不能向用户提供良好操作性。为了解决这一问题,控制部分21仅需要在将输入节奏模式存入RAM中时,将从比当前小节的开头早几十毫秒的时间点(即,前一小节的最后几十个毫秒)至从比当前小节的结尾早几十毫秒的时间点的范围,设置为处理范围。即,控制部分21将将被存入RAM的输入节奏模式的目标范围前移几十毫秒。这样,该修改可防止输出与用户意图不同的搜出结果。
——紧跟在搜索之后的再现——
<修改37>
如果控制部分21将用于执行节奏模式搜索的定时设置为与基于小节线时钟的小节切换定时设置成一致,则可能出现下面的问题。例如,本发明的搜索方法还可应用至配置有回放功能的乐音数据处理设备,回放功能允许搜出乐音数据组在紧跟在节奏输入之后的小节中与小节线时钟同步地回放或再现。在这种情况下,为了从紧跟在节奏输入之后的小节的开头再现搜出乐音数据组(搜出结果),必须在小节开始的时间点之前(即,在已经进行节奏输入的同一小节内)输出搜出结果。并且,在其中将被再现的乐音数据组由于RAM等的存储容量问题等不能被读取及被预先存入RAM的情况下,需要在已经进行节奏输入的同一小节内读出搜出乐音数据组并将读出的乐音数据组存入RAM。为了解决这一问题,控制部分21仅仅需要将用于执行节奏模式搜索的定时转变成比小节切换定时早几十毫秒。这样,在小节切换实施之前执行搜索并将搜出的乐音数据组存入RAM,从而可以在紧跟在节奏输入之后的小节的开头再现搜出的乐音数据组。
——多个小节的节奏模式的搜索——
<修改38>
可进行下述配置来实现多个小节(下文中称为“N个”小节)的节奏模式的搜索,而不是一个小节的节奏模式的搜索。为了便于描述,下文将参考上述第二实施例和第三实施例来描述下述配置。例如,在这种情况下,可采用其中控制部分21利用具有N个小节的组的输入节奏模式来搜索节奏模式表格的方法。但是,利用该方法,在根据小节线时钟信号输入节奏模式时,用户必须指定第一小节位于哪。并且,由于搜出结果在N个小节之后输出,所以在输出搜出结果之前要花费很长时间。为了消除这种不便,可以进行下述配置。
图28是用于搜索多个小节的节奏模式的处理的示意说明图。为了便于描述,下文将参考上述第二实施例和第三实施例来描述下述配置。在修改38中,自动伴奏DB 222的节奏模式表格包含各自具有N个小节的节奏模式数据的多个节奏模式记录。用户经由操作部分25指定将被搜索的节奏模式中的小节数量。这种用户指定的内容显示在显示部分24上。在此假设用户已经指定了“两个”作为小节数量。一旦用户通过任意控件输入了节奏,控制部分21首先存储第一小节的输入节奏模式,随后根据第一小节的输入节奏模式来搜索节奏模式。根据下述操作序列执行搜索。首先,考虑各自具有两个小节的节奏模式数据的多个节奏模式记录,控制部分21计算第一小节的输入节奏模式与每个节奏模式数据的第一小节和第二小节的节奏模式之间的距离。随后,对于每个节奏模式数据,控制部分21将所计算出的第一小节的输入节奏模式与第一小节的节奏模式之间的距离、以及所计算出的第一小节的输入节奏模式与第二小节的节奏模式之间的距离之中较小的一个存入RAM。随后,控制部分21针对第二小节的输入节奏模式执行类似操作。此后,控制部分21针对每个节奏模式数据将由此存入RAM的距离进行求和,随后将该和(相加的结果)设置为表示节奏模式数据与输入节奏模式之间的距离的分数。随后,控制部分21按照上述分数的升序重新排布上述分数小于预定阈值的各个节奏模式数据,随后将该节奏模式数据输出为搜出结果。在前述方式中,可以搜索各自具有多个小节的多个节奏模式数据。由于针对每个小节计算了输入节奏模式与节奏模式数据之间的距离,所以不需要用户指定第一小节在哪,并且在输出结果之前不需要很长时间。
——输入节奏获取方法1:系数0.5→四舍五入——
<修改39>
控制部分21可按照下述方式而不是前述方法将输入节奏模式存入RAM。下述数学表达式(11)用于获取输入节奏模式中的第n个输入ON-设定时刻。在下面的数学表达式(11)中,“L”代表一个小节的结尾,该小节的开头设置为值“0”,并且“L”是等于或大于“0”的实数。并且在下面的数学表达式(11)中,“N”表示具体地为一个小节内的时钟信号数量的形式的分辨率。
[(第n个ON-设定时刻-小节的开始时刻)/(小节的结束时刻-小节的开始时刻)×N+0.5]×L/N ......数学表达式(11)
在数学表达式(11)中,值“0.5”提供了小数的四舍五入效果,并且可利用等于或大于“0”但是小于“1”的另一值来进行替换。例如,如果值被设定为“2”,其提供了对小数的去七保八的效果。该值被预存在存储部分22中,并且用户可经由操作部分25来进行改变。
如上所示,预先可通过操作人员从商业获取的音频循环素材提取各个组件声音的产生开始时刻来创建乐句数据和节奏模式数据。利用该音频循环素材,有时候有意地将往回的吉它声音从其预定的初始时可进行转变,从而增大声音的听觉厚度。在这种情况下,可以通过调节上述参数的值而获得小数被上舍入或被下舍入的乐句数据和节奏模式数据。因此,所创建的乐句数据和节奏模式数据从中消除的前述转变,从而用户可以在期望定时输入节奏模式,而不用担心从预定原始定时的转变。
<修改40>
可通过其中节奏输入装置10和信息处理装置20被构建成集成单元的设备来实现本发明。将参考上述第二实施例和第三实施例来描述该修改。注意,其中节奏输入装置10和信息处理装置20被构建成集成单元的设备可被构建成例如便携电话、配置了触摸屏的移动通信终端等。下文将参考其中设备是配置了触摸屏的移动通信终端的情况描述该修改40。
图29是示出了构建为修改40的移动通信终端600的示图。移动通信终端600包括布置在其前表面的触摸屏610。用户可通过对触摸屏610的期望位置进行触摸来对移动通信终端600进行操作,并且与用户操作对应的内容被显示在触摸屏610上。注意,移动通信终端600的硬件结构类似于图11所示的结构,不同之处在于显示部分24和操作部分25的功能通过触摸屏610来实现、以及节奏输入装置10以及信息处理装置20被构建成集成单元。下文利用与图11相同的参考标号和字符描述控制部分、存储部分以及自动伴奏DB。
BPM指定滑动器201、基调(音乐基调)指定键盘202以及和弦指定框203被显示在触摸屏610的上部区域。BPM指定滑动器201、基调指定键盘202以及和弦指定框203在结构和功能上类似于参考图16描述的那些结构和功能。并且,输出作为搜出结果的节奏模式记录的列表被显示在触摸屏610的下部区域。一旦用户指定了表示不同演奏部件的部件选择图像620的任意一个,则控制部分21就显示节奏模式记录的列表来作为针对用户指定的演奏部件的搜出结果。
项目“顺序”、“文件名称”、“相似度”、“BPM”以及“基调”类似于参考图16描述的那些。此外,诸如“流派”和“乐器类型”之类的其它相关信息也可显示。一旦用户从列表中指定了再现指示图像630的任意期望的一个,则与用户指定的再现指示图像630相对应的节奏模式记录被再现。这种移动通信终端600也可实现总体上与上述第二实施例和第三实施例相同的有利效果。
<修改41>
本发明可被实现为不同于诸如用于实现这样的乐音数据处理的方法或者用于使计算机实现图4和图14所示的功能的程序之类乐音数据处理设备。这种程序可被存储在存储介质(例如光盘)中而提供给用户,或者经由因特网等下载并安装至用户计算机。
<修改42>
除了上述实施例中采用的搜索模式(即,自动伴奏模式、替换搜索模式和跟随搜索模式)之外,可以实现切换至下列其它模式。第一个是其中以每小节为基础不断运行的搜索处理的模式,其是最类似于输入节奏模式的模式,或者是类似于输入节奏模式的预定数量的搜出结果被自动再现的模式。该模式一开始被应用于自动伴奏等。第二个是其中在用户完成节奏输入时响应于用户指示开始搜索而仅仅再现节拍声、并且其中自动地或者响应于操作指令而显示搜出结果的模式。
<修改43>
作为第一实施例的另一修改,当搜索功能为ON时,节奏模式搜索部分213(图4)在以相似度的降序重新排布多个伴奏声音源之后,以列表格式显示具有高于与用户输入节奏模式的预定相似度的多个伴奏声音源。图30的(a)和(b)是示出了针对伴奏声音源的搜索结果的列表的示意图。如图30的(a)和(b)所示,针对伴奏声音源的搜出结果的列表各自包括多个项目:“文件名称”、“相似度”、“基调”、“流派”以及“BPM(每分钟的节拍)”。“文件名称”唯一地识别了伴奏声音源的名称。“相似度”是指示伴奏声音源的节奏模式有多么类似于输入节奏模式的值;相似度的较小值代表了较高的相似度(即,伴奏声音源的节奏模式与输入节奏模式的较短距离)。“基调”表示伴奏声音源的音乐基调(乐音音高)。“流派”表示伴奏声音源所属的流派(例如摇滚、拉丁等)。“BPM”表示每分钟的节拍数量,更具体地是伴奏声音源的拍速。
更具体地说,图30的(a)示出了具有高于与用户输入节奏模式的预定相似度的节奏模式、以相似度的降序被显示为搜出结果的多个伴奏声音源的列表的示例。在此,用户可使搜出结果在利用期望一个项目(例如“基调”、“流派”或“BPM”)对搜出结果进行过滤(即,关注)之后被显示出来。图10的(b)示出了关注“拉丁”作为“流派”的用户所过滤的搜出结果的列表。
<其它修改>
虽然已经参考其中步骤Sb6中的节奏模式差异计算使用两个时间差异(即,基于节奏模式B的节奏模式A的时间差以及基于节奏模式A的节奏模式B的时间差)(所谓的“对称距离方案或方法”)的情况描述了上述实施例,但是本发明并不限于此,可以在节奏模式差异计算中使用两个时间差的任意一个。
并且,在其中利用MIDI数据来执行上述搜索或可听再现、并且其中以多音轨方式再现多个演奏部件(有时候也称为“部件”)的演奏数据组的情况下,可仅仅在特定的一个音轨上执行搜索。
此外,节奏类别确定或识别操作(步骤Sb2至Sb5)可免去,在该情况中可以仅仅利用步骤Sb6的节奏模式差异计算的结果来执行步骤Sb7的节奏模式距离计算操作。
此外,在第一至第三实施例中的节奏模式差异计算(步骤Sb6)中,计算出的差异的值可乘以每个相应的组件声音的敲击强度的值,从而可以从搜索结果候选中很容易地排除包括具有较大敲击强度的组件声音的乐句记录。
并且,虽然已经利用自动伴奏数据组(每个自动伴奏数据组均具有一个小节的长度)描述了上述实施例,但无需限制声音长度。
此外,在上述第二和第三实施例中,用户可利用操作部分25而不是演奏控件来指定演奏部件。在这种情况下,随着用户在指定演奏部件之后操作演奏控件,针对指定的演奏部件进行输入。例如,在这种情况下,即使用户在经由操作部分25指定了“贝司”部分之后操作和弦输入范围键盘11b,控制部分21也将该用户操作看作是“贝司”部件的输入。
并且,虽然上文已经参考其中诸如低音鼓输入操作板12a、小鼓输入操作板12b、踩镲输入操作板12c以及钹输入操作板12d之类的不同操作板以一对一的关系分配给不同音色的各个节奏部件的情况描述了第二和第三实施例,但是本发明并不限于此,并且可以以能经由单个操作板执行不同音色的节奏部件的输入操作的方式进行配置。在这种情况下,用户可以经由操作部分25指定期望节奏部件的音色。
而且,虽然上文已经参考其中以从“0”至“1”的范围内的小数值表示节奏模式数据的情况描述了第二和第三实施例,但是可以利用在例如“0”至“96”范围内的多个整数值来表示节奏模式数据。
而且,虽然上文已经参考其中检测具有高相似度的预定数量的搜出结果的情况描述了第二和第三实施例,但是可根据不同于前述的另一条件来检测该预定数量的搜出结果。例如,检测相似度落入预定范围内的搜出结果,并且这样的预定范围可以由用户设置从而从如此设置的范围进行搜索。
而且,本发明可配备用于编辑乐音数据、自动伴奏数据、风格数据等的功能,从而可以在显示搜出数据的屏幕上选择期望的乐音数据、自动伴奏数据和风格数据,以及在显示所选数据的屏幕上逐部分地展开并显示所选数据,以便可以针对每个演奏部件来完成诸如期望的乐音数据、自动伴奏数据、风格数据之类的各种数据的编辑。
Claims (11)
1.一种乐音数据处理设备,包括:
存储部分,其中彼此相关联地存储了乐音数据组和乐音节奏模式,其中,每个乐音数据组代表了预定时间段内的多个声音,每个乐音节奏模式代表了所述多个声音的一系列声音产生时刻;
通知部分,其不仅根据时间的过去而使所述时间段内的指定时刻前进,而且向用户通知所述指定时刻;
获取部分,其根据在所述通知部分正在通知所述指定时刻的同时由用户所输入的操作,获取代表与用户输入的操作的模式相对应的一系列指定时刻的输入节奏模式;以及
搜索部分,其搜索所述存储部分中存储的乐音数据组,以查找关联于与输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
2.根据权利要求1所述的乐音数据处理设备,其中所述存储部分中与乐音节奏模式相关联地存储了根据乐音节奏模式所代表的声音产生时刻间隔确定的节奏类别,
其中所述乐音数据处理设备进一步包括:确定部分,其根据输入节奏模式所代表的指定时刻之间的间隔,确定输入节奏模式所属的节奏类别;以及计算部分,其计算输入节奏模式与每个乐音节奏模式之间的距离,以及
其中所述搜索部分根据输入节奏模式所属的节奏类别与乐音节奏模式所属的节奏类别之间的关系,计算输入节奏模式与每个乐音节奏模式之间的相似度,以及
所述搜索部分识别出的乐音数据组是关联于与由所述搜索部分计算的输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
3.根据权利要求2所述的乐音数据处理设备,其中所述搜索部分对代表输入节奏模式所表示的声音产生时刻的频率分布的输入时间间隔柱状图与代表针对每个节奏类别的在乐音节奏模式中的声音产生时刻间隔的频率分布的节奏类别柱状图进行比较,以识别出呈现与输入时间间隔柱状图的高相似度的节奏类别柱状图的特定节奏类别,以及
其中所述搜索部分所识别出的乐音数据是与包含在与识别出的节奏类别相关联的乐音节奏模式中的、与输入节奏模式的相似度满足预定条件的乐音节奏模式相关的乐音数据组。
4.根据权利要求2或3所述的乐音数据处理设备,其中预定时间段包括多个时间片段,
所述存储部分针对每个时间片段将代表多个声音的一系列声音产生时刻的乐音节奏模式与乐音数据组彼此相关联地存储,
所述计算部分计算输入节奏模式与所述存储部分中存储的每个时间片段的乐音节奏模式之间的距离,以及
所述搜索部分根据输入节奏模式与所述计算部分针对每个时间片段计算出的乐音节奏模式之间的距离、输入节奏模式所属的节奏类别、以及乐音节奏模式所属的节奏类别三者之间的关系,来计算输入节奏模式与乐音节奏模式之间的相似度,以及
其中所述搜索部分识别出的乐音数据组是关联于与计算出的输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
5.根据权利要求1至4中任一项所述的乐音数据处理设备,进一步包括提供部分,其与所述通知部分对指定时刻的通知同步地将由所述搜索部分搜索出的乐音数据组提供给可听地输出与乐音数据组对应的声音的声音输出部分。
6.根据权利要求1至5中任一项所述的乐音数据处理设备,其中所述存储部分中与乐音数据组相关联地存储了乐音音高模式,每个乐音音高模式代表了相应一个乐音数据组所表示的声音的一系列乐音音高,
其中所述乐音数据处理设备进一步包括乐音音高模式获取部分,其根据所述通知部分正在通知指定时刻的同时由用户所输入的操作,获取代表一系列乐音音高的输入音高模式,
其中所述搜索部分根据输入音高模式的各个声音与乐音音高模式的各个声音之间的乐音音高差的方差,计算输入音高模式与每个乐音音高模式之间的相似度,以及
其中所述搜索部分所识别出的乐音数据是与计算出的与输入音高模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组。
7.根据权利要求1至6中任一项所述的乐音数据处理设备,其中所述存储部分中与乐音数据组相关联地存储了乐音速度模式,每个乐音速度模式代表了相应一个乐音数据组所表示的声音的一系列声音强度,
其中所述乐音数据处理设备进一步包括速度模式获取部分,其根据所述通知部分正在通知指定时刻的同时由用户所输入的操作,获取代表一系列声音强度的输入速度模式,
其中所述搜索部分根据输入速度模式的各个声音与乐音速度模式的各个声音之间的强度差异的绝对值,计算输入节奏模式与每个乐音节奏模式之间的相似度,以及
其中所述搜索部分所识别出的乐音数据组是与计算出的与输入节奏模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组。
8.根据权利要求1至7中任一项所述的乐音数据处理设备,其中所述存储部分中与乐音数据组相关联地存储了乐音持续时间模式,每个乐音持续时间模式代表了相应一个乐音数据组所表示的一系列声音持续时间,
其中所述乐音数据处理设备进一步包括持续时间模式获取部分,其根据所述通知部分正在通知指定时刻的同时由用户所输入的操作,获取代表一系列声音强度的输入持续时间模式,
其中所述搜索部分根据输入持续时间模式的各个声音与相应的一个乐音持续时间模式的各个声音之间的持续时间差异的绝对值,计算输入节奏模式与每个乐音节奏模式之间的相似度,以及
其中所述搜索部分所识别出的乐音数据组是与计算出的与输入节奏模式的相似度满足预定条件的乐音节奏模式相关联的乐音数据组。
9.一种乐音数据处理***,包括:
输入装置,用户通过其输入演奏操作;以及
根据权利要求1至8中任一项所述的乐音数据处理设备,在所述乐音数据处理设备的通知部分正使预定时间段内的指定时刻前进的同时,所述乐音数据处理设备获取用户已经向所述输入装置输入各个演奏操作时的一系列时间间隔,作为代表了各个声音将被可听地产生的一系列声音产生时刻的节奏模式。
10.一种用于搜索乐音数据组的计算机实现方法,包括:
存储步骤,用于将乐音数据组和乐音节奏模式彼此相关联地存储到存储装置中,其中每个乐音数据组代表了预定时间段内的多个声音,每个乐音节奏模式代表了所述多个声音的一系列声音产生时刻;
通知步骤,用于不仅根据时间的过去而使所述时间段内的指定时刻前进,而且向用户通知所述指定时刻;
获取步骤,用于根据在正利用所述通知步骤通知所述指定时刻的同时由用户所输入的操作,获取代表与操作的模式相对应的一系列指定时刻的输入节奏模式;以及
搜索步骤,用于搜索所述存储装置中存储的乐音数据组,以查找关联于与输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
11.一种计算机可读介质,其中存储了用于使计算机执行下述步骤的程序:
存储步骤,用于将乐音数据组和乐音节奏模式彼此相关联地存储到存储装置中,其中每个乐音数据组代表了预定时间段内的多个声音,每个乐音节奏模式代表了所述多个声音的一系列声音产生时刻;
通知步骤,用于不仅根据时间的过去而使所述时间段内的指定时刻前进,而且向用户通知所述指定时刻;
获取步骤,用于根据在正利用所述通知步骤通知所述指定时刻的同时由用户所输入的操作,获取代表与操作的模式相对应的一系列指定时刻的输入节奏模式;以及
搜索步骤,用于搜索所述存储装置中存储的乐音数据组,以查找关联于与输入节奏模式的相似度满足预定条件的乐音节奏模式的乐音数据组。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-268661 | 2010-12-01 | ||
JP2010268661 | 2010-12-01 | ||
JP2011263088 | 2011-11-30 | ||
JP2011-263088 | 2011-11-30 | ||
PCT/JP2011/077839 WO2012074070A1 (ja) | 2010-12-01 | 2011-12-01 | リズムパターンの類似度に基づく楽音データの検索 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102640211A true CN102640211A (zh) | 2012-08-15 |
CN102640211B CN102640211B (zh) | 2013-11-20 |
Family
ID=46171995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011800038408A Expired - Fee Related CN102640211B (zh) | 2010-12-01 | 2011-12-01 | 根据与节奏模式的相似度搜索乐音数据组 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9053696B2 (zh) |
EP (1) | EP2648181B1 (zh) |
JP (1) | JP5949544B2 (zh) |
CN (1) | CN102640211B (zh) |
WO (1) | WO2012074070A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096622A (zh) * | 2019-12-23 | 2021-07-09 | 卡西欧计算机株式会社 | 显示方法、电子设备、演奏数据显示***及存储介质 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8507781B2 (en) * | 2009-06-11 | 2013-08-13 | Harman International Industries Canada Limited | Rhythm recognition from an audio signal |
JP2011164171A (ja) * | 2010-02-05 | 2011-08-25 | Yamaha Corp | データ検索装置 |
US8530734B2 (en) * | 2010-07-14 | 2013-09-10 | Andy Shoniker | Device and method for rhythm training |
JP5728888B2 (ja) * | 2010-10-29 | 2015-06-03 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
EP2690620B1 (en) * | 2011-03-25 | 2017-05-10 | YAMAHA Corporation | Accompaniment data generation device |
JP5891656B2 (ja) * | 2011-08-31 | 2016-03-23 | ヤマハ株式会社 | 伴奏データ生成装置及びプログラム |
US8614388B2 (en) * | 2011-10-31 | 2013-12-24 | Apple Inc. | System and method for generating customized chords |
CN103514158B (zh) * | 2012-06-15 | 2016-10-12 | 国基电子(上海)有限公司 | 音乐文件搜索方法及多媒体播放装置 |
JP6047985B2 (ja) * | 2012-07-31 | 2016-12-21 | ヤマハ株式会社 | 伴奏進行生成装置及びプログラム |
US9219992B2 (en) * | 2012-09-12 | 2015-12-22 | Google Inc. | Mobile device profiling based on speed |
US9012754B2 (en) | 2013-07-13 | 2015-04-21 | Apple Inc. | System and method for generating a rhythmic accompaniment for a musical performance |
JP6048586B2 (ja) * | 2014-01-16 | 2016-12-21 | ヤマハ株式会社 | リンクにより音設定情報を設定し編集すること |
JP6606844B2 (ja) * | 2015-03-31 | 2019-11-20 | カシオ計算機株式会社 | ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器 |
JP6759545B2 (ja) * | 2015-09-15 | 2020-09-23 | ヤマハ株式会社 | 評価装置およびプログラム |
US9651921B1 (en) * | 2016-03-04 | 2017-05-16 | Google Inc. | Metronome embedded in search results page and unaffected by lock screen transition |
US11151970B2 (en) * | 2017-01-19 | 2021-10-19 | Inmusic Brands, Inc. | Systems and methods for selecting musical sample sections on an electronic drum module |
US10510327B2 (en) * | 2017-04-27 | 2019-12-17 | Harman International Industries, Incorporated | Musical instrument for input to electrical devices |
EP3428911B1 (en) * | 2017-07-10 | 2021-03-31 | Harman International Industries, Incorporated | Device configurations and methods for generating drum patterns |
JP2019200390A (ja) | 2018-05-18 | 2019-11-21 | ローランド株式会社 | 自動演奏装置および自動演奏プログラム |
KR102621546B1 (ko) * | 2018-05-24 | 2024-01-08 | 에이미 인코퍼레이티드 | 음악 생성기 |
US10838980B2 (en) * | 2018-07-23 | 2020-11-17 | Sap Se | Asynchronous collector objects |
WO2021044563A1 (ja) * | 2019-09-04 | 2021-03-11 | ローランド株式会社 | 自動演奏装置および自動演奏プログラム |
US11947864B2 (en) | 2020-02-11 | 2024-04-02 | Aimi Inc. | Music content generation using image representations of audio files |
EP4350684A1 (en) * | 2022-09-28 | 2024-04-10 | Yousician Oy | Automatic musician assistance |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887297A (ja) * | 1994-09-20 | 1996-04-02 | Fujitsu Ltd | 音声合成システム |
JP2000029487A (ja) * | 1998-07-08 | 2000-01-28 | Nec Corp | 発音記号を用いた音声データ変換・復元装置 |
JP2002215632A (ja) * | 2001-01-18 | 2002-08-02 | Nec Corp | 携帯端末を用いた音楽検索システム、音楽検索方法、および購入方法 |
JP2005227850A (ja) * | 2004-02-10 | 2005-08-25 | Toshiba Corp | 情報処理装置、情報処理方法及びプログラム |
JP2005338353A (ja) * | 2004-05-26 | 2005-12-08 | Matsushita Electric Ind Co Ltd | 音楽検索装置 |
CN1755686A (zh) * | 2004-09-30 | 2006-04-05 | 株式会社东芝 | 音乐搜索***和音乐搜索装置 |
CN100511422C (zh) * | 2000-12-07 | 2009-07-08 | 索尼公司 | 内容检索方法和装置、通信***和通信方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6121530A (en) | 1998-03-19 | 2000-09-19 | Sonoda; Tomonari | World Wide Web-based melody retrieval system with thresholds determined by using distribution of pitch and span of notes |
JP2000187671A (ja) * | 1998-12-21 | 2000-07-04 | Tomoya Sonoda | ネットワ―クを利用した歌声による曲検索システム及び検索時に用いる歌声の入力端末装置 |
JP2002047066A (ja) | 2000-08-02 | 2002-02-12 | Tokai Carbon Co Ltd | SiC成形体およびその製造方法 |
JP4520490B2 (ja) * | 2007-07-06 | 2010-08-04 | 株式会社ソニー・コンピュータエンタテインメント | ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム |
JP5560861B2 (ja) | 2010-04-07 | 2014-07-30 | ヤマハ株式会社 | 楽曲解析装置 |
-
2011
- 2011-12-01 US US13/395,433 patent/US9053696B2/en active Active
- 2011-12-01 JP JP2012513378A patent/JP5949544B2/ja not_active Expired - Fee Related
- 2011-12-01 CN CN2011800038408A patent/CN102640211B/zh not_active Expired - Fee Related
- 2011-12-01 WO PCT/JP2011/077839 patent/WO2012074070A1/ja active Application Filing
- 2011-12-01 EP EP11822840.2A patent/EP2648181B1/en not_active Not-in-force
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887297A (ja) * | 1994-09-20 | 1996-04-02 | Fujitsu Ltd | 音声合成システム |
JP2000029487A (ja) * | 1998-07-08 | 2000-01-28 | Nec Corp | 発音記号を用いた音声データ変換・復元装置 |
CN100511422C (zh) * | 2000-12-07 | 2009-07-08 | 索尼公司 | 内容检索方法和装置、通信***和通信方法 |
JP2002215632A (ja) * | 2001-01-18 | 2002-08-02 | Nec Corp | 携帯端末を用いた音楽検索システム、音楽検索方法、および購入方法 |
JP2005227850A (ja) * | 2004-02-10 | 2005-08-25 | Toshiba Corp | 情報処理装置、情報処理方法及びプログラム |
JP2005338353A (ja) * | 2004-05-26 | 2005-12-08 | Matsushita Electric Ind Co Ltd | 音楽検索装置 |
CN1755686A (zh) * | 2004-09-30 | 2006-04-05 | 株式会社东芝 | 音乐搜索***和音乐搜索装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096622A (zh) * | 2019-12-23 | 2021-07-09 | 卡西欧计算机株式会社 | 显示方法、电子设备、演奏数据显示***及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20120192701A1 (en) | 2012-08-02 |
US9053696B2 (en) | 2015-06-09 |
JP5949544B2 (ja) | 2016-07-06 |
WO2012074070A1 (ja) | 2012-06-07 |
EP2648181B1 (en) | 2017-07-26 |
JPWO2012074070A1 (ja) | 2014-05-19 |
EP2648181A4 (en) | 2014-12-03 |
EP2648181A1 (en) | 2013-10-09 |
CN102640211B (zh) | 2013-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102640211B (zh) | 根据与节奏模式的相似度搜索乐音数据组 | |
CN103165115B (zh) | 声音数据处理装置及方法 | |
US7792782B2 (en) | Internet music composition application with pattern-combination method | |
Widmer et al. | In search of the Horowitz factor | |
EP2515296B1 (en) | Performance data search using a query indicative of a tone generation pattern | |
Roads | Research in music and artificial intelligence | |
Dittmar et al. | Music information retrieval meets music education | |
CN102760428B (zh) | 使用表示乐音生成模式的查询的演奏数据搜索 | |
Eigenfeldt et al. | Considering Vertical and Horizontal Context in Corpus-based Generative Electronic Dance Music. | |
CN1750116B (zh) | 自动表演风格确定设备和方法 | |
Cogliati et al. | Transcribing Human Piano Performances into Music Notation. | |
JP5879996B2 (ja) | 音信号生成装置及びプログラム | |
Widmer | In search of the horowitz factor: Interim report on a musical discovery project | |
US11756515B1 (en) | Method and system for generating musical notations for musical score | |
Weiß et al. | Timbre-invariant audio features for style analysis of classical music | |
Dixon | Analysis of musical expression in audio signals | |
JP3835131B2 (ja) | 自動作曲装置及び方法並びに記憶媒体 | |
JP2000163064A (ja) | 楽曲生成装置および楽曲生成プログラムを記録した記録媒体 | |
Guo | AI pop music composition with different levels of control: theory and application | |
DeAmon | Predicting and Composing a Top Ten Billboard Hot 100 Single with Descriptive Analytics and Classification | |
Robertson et al. | Real-time interactive musical systems: An overview | |
Ramona et al. | Giant Steps in Jazz Practice with the Social Virtual Band | |
Dixon | Audio Analysis Applications for Music |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20131120 Termination date: 20191201 |