CN104050974B - 声音信号分析设备以及声音信号分析方法和程序 - Google Patents

声音信号分析设备以及声音信号分析方法和程序 Download PDF

Info

Publication number
CN104050974B
CN104050974B CN201410092702.7A CN201410092702A CN104050974B CN 104050974 B CN104050974 B CN 104050974B CN 201410092702 A CN201410092702 A CN 201410092702A CN 104050974 B CN104050974 B CN 104050974B
Authority
CN
China
Prior art keywords
voice signal
probability
speed
value
eigenvalue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410092702.7A
Other languages
English (en)
Other versions
CN104050974A (zh
Inventor
前泽阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of CN104050974A publication Critical patent/CN104050974A/zh
Application granted granted Critical
Publication of CN104050974B publication Critical patent/CN104050974B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/046Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for differentiation between music and non-music signals, based on the identification of musical parameters, e.g. based on tempo detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/005Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
    • G10H2250/015Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明公开了声音信号分析设备以及声音信号分析方法和程序。一种声音信号分析设备(10),其包括:声音信号输入装置,其用于输入表示乐曲的声音信号;拍速检测装置,其用于通过使用所输入的声音信号来检测所述乐曲的每个部分的拍速;判断装置,其用于判断所述拍速的稳定性;以及控制装置,其用于根据由所述判断装置判断的结果来控制特定目标。

Description

声音信号分析设备以及声音信号分析方法和程序
技术领域
本发明涉及声音信号分析设备、声音信号分析方法和声音信号分析程序,用于分析表示乐曲的声音信号以检测该乐曲的节拍位置(节拍定时)和拍速,从而使受所述设备、方法和程序控制的特定目标进行操作使得该目标与所检测到的节拍位置和拍速同步。
背景技术
传统上,存在这样的声音信号分析设备,其检测乐曲的拍速并使受设备控制的特定目标进行操作以使得该目标与所检测到的节拍位置和拍速同步,例如,如“Journal ofNew Music Research”2001年第30卷第2期第159-171页所述。
发明内容
上述文献的传统的声音信号分析设备被设计为处理每个具有大致恒定的拍速的乐曲。因此,在传统的声音信号分析设备处理其中拍速在乐曲中间的某个点处急剧变化的乐曲的情况下,该设备很难准确地检测拍速变化的时间段内的节拍位置和拍速。因此,传统的声音信号分析设备呈现了在拍速变化的时间段内目标操作不自然的问题。
完成本发明以解决上述问题,并且本发明的目的是提供一种声音信号分析设备,其检测乐曲的节拍位置和拍速,并且使受所述声音信号分析设备控制的目标进行操作以使得所述目标与所检测到的节拍位置和拍速同步,所述声音信号分析设备防止所述目标在拍速变化的时间段内操作不自然。另外,对于本发明的各个构成要素的描述,为了方便对本发明的理解,稍后描述的实施例的对应组件的参考字母均提供在括号内。然而,应当理解的是,本发明的构成要素不限于实施例的参考字母所表示的对应组件。
为了实现上述目的,本发明的一个特征是提供一种声音信号分析设备,包括:声音信号输入装置(S13,S120),其用于输入表示乐曲的声音信号;拍速检测装置(S15,S180),其用于通过使用所输入的声音信号来检测所述乐曲的每个部分的拍速;判断装置(S17,S234),其用于判断所述拍速的稳定性;以及控制装置(S18,S19,S235,S236),其用于根据由所述判断装置判断的结果来控制特定目标(EXT,16)。
在该情况下,如果各部分之间的拍速的变化量落在预定的范围内,则所述判断装置(S17)可以判断拍速稳定,而如果各部分之间的拍速的变化量在所述预定的范围以外,则所述判断装置可以判断拍速不稳定。
另外,在该情况下,在拍速稳定的部分中,所述控制装置可以使所述目标在预定的第一模式(S18,S235)下操作,而在拍速不稳定的部分中,所述控制装置使所述目标在预定的第二模式(S19,S236)下操作。
如上配置的声音信号分析设备判断乐曲的拍速稳定性,以根据分析的结果来控制目标。因此,所述声音信号分析设备可以防止在拍速不稳定的部分中乐曲的节奏不能与目标的操作同步的问题。因此,所述声音信号分析设备可以防止目标不自然的操作。
本发明的另一特征是所述拍速检测装置具有:特征值计算装置(S165,S167),其用于计算第一特征值(XO)和第二特征值(XB),所述第一特征值表示与节拍的存在相关的特征,所述第二特征值表示与所述乐曲的每个部分中的拍速相关的特征;以及估计装置(S170,S180),其用于通过从多个概率模型中选择其观测似然度(L)的序列满足一定标准的一个概率模型来同时估计所述乐曲中的节拍位置和拍速变化,所述多个概率模型被描述为根据与所述每个部分中的节拍的存在相关的物理量(n)和与所述每个部分中的拍速相关的物理量(b)的结合来分类的各状态(qb,n)的序列,所述一个概率模型的所述观测似然度的序列中的每个均表示所述每个部分中的所述第一特征值和所述第二特征值的同时观测的概率。
在该情况下,所述估计装置可以通过从所述多个概率模型中选择最可能的观测似然度的序列的概率模型来同时估计所述乐曲中的节拍位置和拍速变化。
在该情况下,所述估计装置可以具有第一概率输出装置,其用于输出通过将所述第一特征值指定为根据与节拍的存在相关的物理量而定义的概率分布函数的概率变量来计算得到的概率,以作为所述第一特征值的观测概率。
在该情况下,所述第一概率输出装置可以输出通过将所述第一特征值指定为根据与节拍的存在相关的物理量来定义的正态分布、伽马分布和泊松分布中的任何一个(包括但不限于其中的任何一个)的概率变量而计算出的概率,作为所述第一特征值的观测的概率。
在该情况下,所述估计装置可以具有第二概率输出装置,其用于输出所述第二特征相对于根据与拍速相关的物理量提供的多个模板的拟合优度,来作为所述第二特征值的观测概率。
另外,在该情况下,所述估计装置可以具有第二概率输出装置,其用于输出通过将所述第二特征值指定为根据与拍速相关的物理量定义的概率分布函数的概率变量而计算得到的概率来作为所述第二特征值的观测概率。
在该情况下,所述第二概率输出装置可以输出通过将所述第二特征值指定为根据与拍速相关的物理量来定义的多项分布、狄利克雷分布、多维正态分布、以及多维泊松分布中的任何一个(包括但不限于其中的任何一个)的概率变量而计算出的概率,作为所述第二特征值的观测的概率。
以上构造的声音信号分析设备可以选择满足通过使用表示与节拍的存在相关的特征的第一特征值和表示与拍速相关的特征的第二特征值而计算出的观测似然度的序列的特定标准的概率模型(诸如最可能的概率模型或最大后验概率模型之类的概率模型),以同时(一道地)估计乐曲中的节拍位置和拍速的变化。因此,与其中通过计算得出乐曲的节拍位置从而使用该计算结果来得到拍速的情况相比,所述声音信号分析设备可以提高拍速估计的精度。
本发明的又一特征是所述判断装置根据从所述乐曲的开端到各个部分所观测的所述第一特征值和所述第二特征值来计算各个部分中的各个状态的似然度(C),并且根据各个部分中的各个状态的似然度的分布来判断各个部分中的拍速的稳定性。
如果各部分中的各个状态的似然度分布的方差小,则可以认为拍速值的可靠性高以致得到稳定的拍速。另一方面,如果各部分的各个状态的似然度分布的方差大,则可以认为拍速值的可靠性低从而导致不稳定的拍速。根据本发明,由于根据各状态的似然度的分布来控制目标,因此所述声音信号分析设备可以防止当拍速不稳定时乐曲的节奏不能与目标的操作同步的问题。因此,所述声音信号分析设备可以防止目标的不自然的操作。
另外,本发明不仅可以体现为声音信号分析设备的发明,还可以体现为声音信号分析方法的发明以及适用于所述设备的计算机程序的发明。
附图说明
图1是表示根据本发明的第一和第二实施例的声音信号分析设备的整体构造的框图;
图2是根据本发明的第一实施例的声音信号分析程序的流程图;
图3是拍速稳定性判断程序的流程图;
图4是概率模型的概念图;
图5是根据本发明的第二实施例的声音信号分析程序的流程图;
图6是特征值计算程序的流程图;
图7是表示要分析的声音信号的波形的图;
图8是表示通过对一帧进行短时傅里叶变换得到的声谱的图;
图9是表示带通滤波器的特性的图;
图10是表示各个频带的时变振幅的图;
图11是表示时变的起振(onset)特征值的图;
图12是梳状滤波器的框图;
图13是表示BPM特征值的计算结果的图;
图14是对数观测似然度计算程序的流程图;
图15是表示起振特征值的观测似然度的计算结果的图表;
图16是表示各模板的构造的图表;
图17是表示BPM特征值的观测似然度的计算结果的图表;
图18是节拍/拍速同时估计程序的流程图;
图19是表示对数观测似然度的计算结果的图表;
图20是表示当从最上一帧起开始观测起振特征值和BPM特征值时作为各个帧的各状态的极大似然度序列而选择的各状态的似然度的计算结果的图表;
图21是表示转变之前的状态的计算结果的图表;
图22是表示BPM率、BPM率的平均值和BPM率的方差的计算结果的示例的图表;
图23是示意性地表示节拍/拍速信息列表的示意图;
图24是表示拍速变化的图;
图25是表示节拍位置的图;
图26是表示起振特征值、节拍位置和BPM率方差的变化的图;以及
图27是再现/控制程序的流程图。
具体实施方式
(第一实施例)
现在将描述根据本发明的第一实施例的声音信号分析设备10。如下所述,声音信号分析设备10接收表示乐曲的声音信号,检测该乐曲的拍速,并且使受声音信号分析设备10控制的特定目标(外部设备EXT、嵌入式音乐演奏设备等)进行操作使得该目标与所检测到的拍速同步。如图1所示,声音信号分析设备12具有输入操作元件11、计算机部分12、显示单元13、存储装置14、外部接口电路15和声音***16,这些组件通过总线BS彼此连接。
输入操作元件11由能够进行开/关操作的开关(例如,用于输入数值的数字小键盘)、能够进行旋转操作的音量或旋转编码器、能够进行滑动操作的音量或线性编码器、鼠标、触摸面板等构成。演奏者的手操纵这些操作元件来选择要分析的乐曲、开始或停止声音信号的分析、再现或停止乐曲(从稍后描述的声音***16输出或停止声音信号)、或者设置与声音信号的分析有关各种参数。响应于演奏者对输入操作元件11的操纵,表示该操纵的操作信息通过总线BS提供至稍后描述的计算机部分12。
计算机部分12由均连接至总线BS的CPU12a、ROM12b和RAM12c构成。CPU12a从ROM12b中读出稍后将详细描述的声音信号分析程序及其子程序,并且执行该程序和子程序。在ROM12b中,不仅存储了声音信号分析程序及其子程序,还存储了初始设置参数以及诸如用于生成显示数据的图形数据和文本数据之类的各种数据,该显示数据表示要显示在显示单元13上的图像。在RAM12c中,临时存储了执行声音信号分析程序所需的数据。
显示单元13由液晶显示器(LCD)构成。计算机部分12生成表示要通过使用图形数据、文本数据等来显示的内容的显示数据,并且将生成的显示数据提供给显示单元13。显示单元13基于从计算机部分12提供的显示数据来显示图像。例如,在选择要分析的乐曲时,在显示单元13上显示乐曲的标题的列表。
存储装置14由诸如HDD、FDD、CD-ROM、MO和DVD之类的高容量的非易失性存储介质及其驱动单元构成。在存储装置14中,存储了分别表示多个乐曲的多个乐曲数据集。每个乐曲数据集由通过在某些采样周期(例如,1/44100s)下对乐曲进行采样得到的多个采样值构成,同时这些采样值依次记录在存储装置14的连续地址内。每个乐曲数据集还包括表示乐曲标题的标题信息和表示乐曲数据集的量的数据大小信息。乐曲数据集可以预先存储在存储装置14中,或者可以通过稍后将描述的外部接口电路15来从外部设备取回。存储在存储装置14中的乐曲数据由CPU12a读取,以分析该乐曲中的节拍位置和拍速的变化。
外部接口电路15具有能够使声音信号分析设备10与诸如电子音乐设备、个人计算机、或照明设备之类的外部设备EXT连接的连接端子。声音信号分析设备10还可以通过外部接口电路15连接至诸如LAN(局域网)或因特网之类的通信网络。
声音***16具有:D/A转换器,其用于将乐曲数据转换为模拟乐音信号;放大器,其用于放大转换后的模拟乐音信号;以及一对左右扬声器,其用于将放大的模拟乐音信号转换为音响信号并输出该音响信号。声音***16还具有效果设备,其用于将效果(音效)添加至乐曲的乐音。添加至乐音的效果的类型和效果的强度由CPU12a控制。
接下来,将说明如上配置的声音信号分析设备10在第一实施例中的操作。当用户打开声音信号分析设备10的电源开关(未示出)时,CPU12a从ROM12b中读出图2所示的声音信号分析程序,并且执行该程序。
在步骤S10处CPU12a开始声音信号分析处理。在步骤S11处,CPU12a读取存储在存储装置14中的乐曲数据集中所包含的标题信息,并在显示单元13上显示乐曲的标题列表。用户利用输入操作元件11,从显示单元13上显示的各乐曲中选择用户想要分析的乐曲数据集。声音信号分析处理可以被构造为使得:当用户在步骤S11中选择了要分析的乐曲数据集时,再现由该乐曲数据集表示的乐曲的一部分或整体,使得用户可以确认该乐曲数据的内容。
在步骤S12处,CPU12a进行用于声音信号分析的初始设置。具体地,在RAM12c中,CPU12a保留用于读取要分析的部分乐曲数据的存储区域,以及保留用于表示开始乐曲数据的读取的地址的读取起始指针RP、用以临时存储所检测到的拍速值的拍速值缓冲器BF1至BF4、以及表示拍速的稳定性(拍速是否已变化)的稳定性标志SF的存储区域。然后,CPU12a分别将某些值作为初始值写入保留的存储区域。例如,将读取起始指针RP的值设置为表示乐曲开端的“0”。而且,将稳定性标志SF的值设置为表示拍速稳定的“1”。
在步骤S13处,CPU12a将从由读取起始指针RP表示的开端地址开始的时间序列上连续的预定数量(例如,256)的采样值读入至RAM12c,并使读取起始指针RP前进与读取的采样值的数量相等的地址数。在步骤S14处,CPU12a将读取的采样值传输至声音***16。声音***16按采样周期的时间序列的顺序将从CPU12a接收的采样值转换为模拟信号,并放大转换的模拟信号。从扬声器发出放大的信号。如稍后所述,重复执行步骤S13至S20。由此,每当执行步骤S13时,会从乐曲的开端向乐曲的末端读取预定数量的采样值。具体地,在步骤S14处再现与读取的预定数量的采样值对应的乐曲的部分(在下文中称为单位部分)。因此,从乐曲的开端到末端平滑地再现乐曲。
在步骤S15处,CPU12a通过与上述“Journal of New Music Research”中描述的程序类似的计算程序来对由读取的预定数量的采样值形成的单位部分或者包括该单位部分的部分的节拍位置和拍速(每分钟节拍数(BPM))进行计算。在步骤S16处,CPU12a从ROM12b中读取由图3表示的拍速稳定性判断程序,并且执行该程序。拍速稳定性判断程序是声音信号分析程序的子程序。
在步骤S16a处,CPU12a开始拍速稳定性判断处理。在步骤S16b处,CPU12a将分别存储在拍速值缓冲器BF2至BF4中的值分别写进拍速值缓冲器BF1至BF3,并且将在步骤S15处计算出的拍速值写进拍速值缓冲器BF4。如稍后所述,由于重复地执行步骤S13至S20,四个连续的单位部分的拍速值会分别存储在拍速值缓冲器BF1至BF4中。因此,通过使用存储在拍速值缓冲器BF1至BF4中的拍速值,可以判断连续的四个单位部分的拍速的稳定性。在下文中,连续的四个单位部分被称为判断部分。
在步骤S16c处,CPU12a判断判断部分的拍速稳定性。具体地,CPU12a计算拍速值缓冲器BF1的值和拍速值缓冲器BF2的值之差df12(=∣BF1-BF2∣)。而且,CPU12a还计算拍速值缓冲器BF2的值和拍速值缓冲器BF3的值之差df23(=∣BF2-BF3∣)、以及拍速值缓冲器BF3的值和拍速值缓冲器BF4的值之差df34(=∣BF3-BF4∣)。CPU12a然后判断差df12、df23和df34是否等于或小于预定的基准值dfs(例如,dfs=4)。如果差df12、df23和df34中的每一个均等于或小于基准值dfs,则CPU12a确定为“是”然后前进到步骤S16d,以将稳定性标志SF的值设置为表示拍速稳定的“1”。若果差df12、df23和df34中至少一个大于基准值dfs,则CPU12a确定为“否”,然后前进到步骤S16e,以将稳定性标志SF的值设置为表示拍速不稳定的“0”(即,拍速在判断部分内急剧变化)。在步骤S16f处,CPU12a终止拍速稳定性判断处理,以前进到声音信号分析处理(主程序)的步骤S17。
现在将再次说明声音信号分析处理。在步骤S17处,CPU12a根据拍速稳定性(即,根据稳定性标志SF的值)来确定CPU12a接下来执行的步骤。如果稳定性标志SF为“1”,CPU12a前进到步骤S18,以便使目标操作在第一模式,在步骤S18处执行拍速稳定时所需的特定处理。例如,CPU12a使通过外部接口电路15连接的照明设备以在步骤S15处计算的拍速(在下文中称为当前拍速)闪烁,或者使照明设备以不同的颜色照明。在该情况下,例如,照明设备的亮度与节拍位置同步地上升。而且,例如,照明设备可以以恒定的亮度和恒定的颜色保持照明。而且,例如,可以将与当前拍速对应的类型的效果添加至由声音***16当前再现的乐音。例如,在该情况下,如果已选择延迟乐音的效果,则可以将延迟量设置为与当前拍速对应的值。而且,例如,可以在显示单元13上显示多个图像,以当前的拍速来切换图像。而且,例如,可以以当前的拍速来控制通过外部接口电路15连接的电子音乐设备(电子乐器)。在该情况下,例如,CPU12a分析判断部分的和弦,以将表示该和弦的MIDI信号传输至电子音乐设备,使得该电子音乐设备可以发出与该和弦对应的乐音。在该情况下,例如,可以以当前的拍速将表示由一个或多个乐器的乐音形成的乐句的MIDI信号的序列传输至电子音乐设备。而且,在该情况下,CPU12a可以使乐曲的节拍位置与乐句的节拍位置同步。因此,可以以当前的拍速来演奏乐句。而且,例如,可以对由一个或多个乐器以一定的拍速演奏的乐句进行采样,以将采样值存储在ROM12b、外部存储装置15等中,使得CPU12a可以以与当前拍速对应的读取速度依次读出表示乐句的采样值,从而将读取的采样值传输至声音***16。因此,可以以当前的拍速再现乐句。
如果稳定性标志SF为“0”,则CPU12a前进到步骤S19,以便使目标操作在第二模式下,在步骤S19处执行当拍速不稳定时所需的特定处理。例如,CPU12a使通过外部接口电路15连接的照明设备停止闪烁,或者使照明设备停止改变颜色。在控制照明设备使得当拍速稳定时照明设备以恒定的亮度和恒定的颜色照明的情况下,CPU12a可以控制照明设备使得当拍速不稳定时照明设备闪烁或变化颜色。而且,例如,CPU12a可以将恰在拍速变得不稳定之前添加的效果定义为要添加至由声音***16当前再现的乐音的效果。而且,例如,可以停止在多个图像之间切换。在该情况下,可以显示预定的图像(例如,表示不稳定的拍速的图像)。而且,例如,CPU12a可以停止向电子音乐设备传输MIDI信号,从而停止电子音乐设备的伴奏。而且,例如,CPU12a可以停止声音***16再现乐句。
在步骤S20处,CPU12a判断读取指针RP是否已到达乐曲的末端。如果读取指针RP还没有到达乐曲的末端,则CPU12确定为“否”以前进到步骤S13从而再次执行步骤S13至S20。如果读取指针RP已到达乐曲的末端,则CPU12a确定为“是”以前进到步骤S21从而终止声音信号分析处理。
根据第一实施例,声音信号分析设备10判断判断部分的拍速稳定性,以根据分析结果来控制诸如外部设备EXT之类的目标和声音***16。因此,声音信号分析设备10可以防止出现这样的问题:如果判断部分中的拍速不稳定,则乐曲的节奏不能与目标的动作一致。因此,声音信号分析设备10可以防止受声音信号分析设备10控制的目标的不自然的动作。而且,由于声音信号分析设备10可以在再现乐曲的某一部分期间检测乐曲的该部分的节拍位置和拍速,因此声音信号分析设备10能够在用户选择了乐曲之后立即再现乐曲。
(第二实施例)
接下来,将描述本发明的第二实施例。由于根据第二实施例的声音信号分析设备被构造为类似于声音信号分析设备10,因此将省略关于第二实施例的声音信号分析设备的构造的说明。然而,第二实施例的声音信号分析设备的操作与第一实施例的操作不同。具体地。在第二实施例中,执行与第一实施例中的程序不同的程序。在第一实施例中,重复其中在读取和和再现乐曲的一部分的采样值期间分析判断部分的拍速稳定性以根据分析结果来控制外部设备EXT和声音***16的一系列的步骤(步骤S13至S20)。然而,在第二实施例中,读取所有形成乐曲的采样值以分析该乐曲的节拍位置和拍速变化。而且,分析后,开始乐曲的再现,并且根据分析结果控制外部设备EXT或声音***16。
接下来,将说明第二实施例中的声音信号分析设备10的操作。首先,将简略地说明声音信号分析设备10的操作。将要分析的乐曲分为多个帧ti{i=0,1,…,最后}。而且,针对每个帧ti,计算出表示与节拍的存在相关的特征的起振特征值XO以及表示与拍速相关的特征的BPM特征值XB。从被描述为根据帧ti中节拍周期b的值(与拍速的倒数成比例的值)和与下一节拍之间的帧的数量n的值的结合来分类的状态qb,n的序列这样的概率模型(隐马尔科夫模型)中,选择如下概率模型:其具有表示作为观测值的起振特征值XO和BPM特征值XB的同时观测的概率的最可能的观测似然度的序列(见图4)。由此,检测所分析的乐曲的节拍位置和拍速的变化。节拍周期b由帧的数量表示。因此,节拍周期b的值是满足“1≤b≤bmax”的整数,在节拍周期b的值为“β”的状态下,帧的数量n的值是满足“0≤n<β”的整数。而且。计算出表示帧ti中节拍周期b的值为“β”(0≤n<bmax)的概率的“BPM率”,从而通过使用“BPM率”来计算“BPM率的方差”。而且,基于“BPM率的方差”,控制外部设备EXT、声音***16等。
接下来,将具体说明第二实施例中的声音信号分析设备10的操作。当用户打开声音信号分析设备10的电源开关(未示出)时,CPU12a从ROM12b中读出图5的声音信号分析程序,并且执行该程序。
在步骤S100处CPU12a开始声音信号分析处理。在步骤S110处,CPU12a读取存储在存储装置14中的乐曲数据集中包含的标题信息,并在显示单元13上显示乐曲的标题列表。用户利用输入操作元件11,从显示单元13上显示的各乐曲中选择用户想要分析的乐曲数据集。声音信号分析处理可以被构造为使得:当用户在步骤S110中选择了要分析的乐曲数据集时,再现由该乐曲数据集表示的乐曲的一部分或整体,使得用户可以确认该乐曲数据的内容。
在步骤S120处,CPU12a进行声音信号分析的初始设置。具体地,CPU12a在RAM12c中保留适合于所选乐曲数据集的数据大小信息的存储区域,并且将所选的乐曲数据集读入至保留的存储区域。此外,CPU12a在RAM12c中保留用于临时存储表示分析结果的节拍/拍速信息列表、起振特征值XO、BPM特征值XB等的区域。
程序分析的结果会存储在存储装置14中,稍后将详细对其进行描述(步骤S220)。如果所选的乐曲已被该程序分析,则分析结果存储在存储装置14中。因此,在步骤S130处,CPU12a搜索与所选乐曲的分析有关的现有数据(在下文中,简称为现有数据)。如果存在现有数据,则CPU12a在步骤S140处确定为“是”,以在步骤S150处将现有数据读入RAM12c,从而前进到稍后将描述的步骤S190。如果不存在现有数据,则CPU12a在步骤S140处确定为“否”,以前进到步骤S160。
在步骤S160处,CPU12a从ROM12b中读出图6所示的特征值计算程序,并且执行该程序。特征值计算程序是声音信号分析程序的子程序。
在步骤S161处,CPU12a开始特征值计算处理。在步骤S162处,CPU12a以图7所示的一定的时间间隔来划分所选的乐曲,从而将所选的乐曲分为多个帧ti{i=0,1,…,最后}。各个帧具有相同的长度。为了方便理解,在本实施例中假设每个帧具有125ms。如上所述,由于每个乐曲的采样周期为1/44100s,因此每个帧由大约5000个采样值构成。如下所述,进一步,针对每个帧计算起振特征值XO和BPM(每分钟的拍数)特征值XB。
在步骤S163处,CPU12a针对每个帧执行短时傅里叶变换,以计算出每个频点fj{j=1,2,…}的振幅A(fj,ti),如图6所示。在步骤S164处,CPU12a通过分别针对各频点fj设定的滤波器组FBOj来对振幅A(f1,ti),A(f2,ti),…进行滤波,从而分别计算出某些频带wk{k=1,2,…}的振幅M(wk,ti)。频点fj的滤波器组FBOj由多个带通滤波器BPF(wk,fj)构成,每个带通滤波器BPF(wk,fj)均具有不同的通带中心频率,如图9所示。构成滤波器组FBOj的带通滤波器BPF(wk,fj)的中心频率在对数频率刻度上均匀地间隔开,同时各带通滤波器BPF(wk,fj)在对数频率刻度上具有相同的通带宽度。每个带通滤波器BPF(wk,fj)被构造为使得增益从通带的中心频率向着通带的下限频率侧和上限频率侧逐渐递减。如图6的步骤S164所示,CPU12a针对每个频点fj用带通滤波器BPF(wk,fj)的增益乘以振幅A(fj,ti)。然后,CPU12a合并针对各个频点fj计算的全部结果。合并的结果被称为振幅M(wk,ti)。如上计算出的振幅M的示例序列如图10所示。
在步骤S165处,CPU12a基于时变的振幅M计算帧ti的起振特征值XO(ti)。具体地,如图6的步骤S165所示,CPU12a针对每个频带wk计算出振幅M从帧ti-1到帧ti的增量R(wk,ti)。然而,在帧ti-1的振幅M(wk,ti-1)与帧ti的振幅M(wk,ti)相同的情况下,或者在帧ti的振幅M(wk,ti)小于帧ti-1的振幅M(wk,ti-1)的情况下,假设增量R(wk,ti)为“0”。然后,CPU12a合并针对各个频带w1,w2,…计算的增量R(wk,ti)。该合并的结果被称为起振特征值XO(ti)。图11中例示了以上计算的起振特征值XO的序列。通常,在乐曲中,节拍位置具有较大的乐音量。因此,起振特征值XO(ti)越大,帧ti具有节拍的概率越高。
通过使用起振特征值XO(t0),XO(t1),…,CPU12a随后针对每个帧ti计算BPM特征值XB。帧ti的BPM特征值XB(ti)由在每个节拍周期b中计算出的一组BPM特征值XBb=1,2,…(ti)表示(见图13)。在步骤S166处,CPU12a将起振特征值XO(t0),XO(t1),…按此顺序输入至滤波器组FBB以对起振特征值XO进行滤波。滤波器组FBB由多个设为分别与各节拍周期b对应的梳状滤波器Db构成。当帧ti的起振特征值XO(ti)被输入至梳状滤波器Db=β时,梳状滤波器Db=β将输入的起振特征值XO(ti)与作为比帧ti超前“β”的帧ti-β的起振特征值XO(ti-β)的输出的数据XDb=β(ti-β)以一定的比例进行合并,并且将合并的结果输出为帧ti的数据XDb=β(ti)(见图12)。换而言之,梳状滤波器Db=β具有用作保持装置的延迟电路db=β,该保持装置用于将数据XDb=β保持与帧的数量β相等的时间段。如上所述,通过将起振特征值XO的序列XO(t){=XO(t0),XO(t1),…}输入至滤波器组FBB,可以计算出数据XDb的序列XDb(t){=XDb(t0),XDb(t1),…}。
在步骤S167处,CPU12a通过将数据XDb的序列XDb(t)在时间序列上颠倒得到的数据序列输入至滤波器组FBB,从而得到BPM特征值的序列XBb(t){=XBb(t0),XBb(t1),…}。因此,可以使起振特征值XO(t0),XO(t1),…的相位与BPM特征值XBb(t0),XBb(t1),…的相位之间的相位偏移为“0”。图13中例示了如上计算出的BPM特征值XB(ti)。如上所述,BPM特征值XBb(ti)是通过将起振特征值XO(ti)与延迟了等同于节拍周期b的值的时间段(即,帧的数量b)的BPM特征值XBb(ti-b)以一定的比例进行结合得到的。因此,在起振特征值XO(t0),XO(t1),…具有其时间间隔等于节拍周期b的值的峰值的情况下,BPM特征量XBb(ti)的值增加。由于乐曲的拍速由每分钟的节拍数表示,因此节拍周期b与每分钟的节拍数的倒数成比例。在图13的示例中,例如,在各BPM特征值XBb中,节拍周期b的值为“4”的BPM特征值XBb(BPM特征值XBb=4)最大。因此,在该示例中,很有可能每四个帧存在一个节拍。由于该实施例被设计为将每个帧的长度限定为125ms,因此在该情况下各节拍之间的间隔为0.5s。换而言之,拍速为120BPM(=60s/0.5s)。
在步骤S168处,CPU12a终止特征值计算处理而前进到声音信号分析处理(主程序)的步骤S170。
在步骤S170处,CPU12a从ROM12b中读出图14所示的对数观测似然度计算程序,并且执行该程序。该对数观测似然度计算程序是声音信号分析处理的子程序。
在步骤S171处,CPU12a开始对数观测似然度计算处理。然后,如下所述,计算出起振特征值XO(ti)的似然度P(XO(ti)∣Zb,n(ti))和BPM特征值XB(ti)的似然度P(XB(ti)∣Zb,n(ti))。上述Zb=β,n=η(ti)表示仅状态qb=β,n=η的发生,其中在帧ti中节拍周期b的值为“β”,到下一个节拍之间的帧的数量n的值为“η”。具体地,在帧ti中,状态qb=β,n=η和状态qb≠β,n≠η不能够同时发生。因此,似然度P(XO(ti)∣Zb=β,n=η(ti))表示在帧ti中节拍周期b的值为“β”同时到下一个节拍之间的帧的数量n的值为“η”的条件下起振特征值XO(ti)的观测的概率。此外,似然度P(XB(ti)∣Zb=β,n=η(ti))表示在帧ti中节拍周期b的值为“β”并且与下一个节拍之间的帧的数量n的值为“η”的条件下BPM特征值XB(ti)的观测的概率。
在步骤S172处,CPU12a计算似然度P(XO(ti)∣Zb,n(ti))。假设如果到下一节拍之间的帧的数量n的值为“0”,则起振特征值XO按均值为“3”方差为“1”的第一正态分布来分布。换而言之,通过将起振特征值XO(ti)指定为第一正态分布的随机变量而得到的值为似然度P(XO(ti)∣Zb,n=0(ti))。另外,假设如果节拍周期b的值为“β”并且与下一个节拍之间的帧的数量n的值为“β/2”,则起振特征值XO按均值为“1”方差为“1”的第二正态分布来分布。换而言之,通过将起振特征值XO(ti)指定为第二正态分布的随机变量而得到的值为似然度P(XO(ti)∣Zb=β,n=β/2(ti))。另外,假设如果与下一个节拍之间的帧的数量n的值既不是“0”也不是“β/2”,则起振特征值XO按均值为“0”方差为“1”的第三正态分布来分布。换而言之,通过将起振特征值XO(ti)指定为第三正态分布的随机变量而得到的值为似然度P(XO(ti)∣Zb,n≠0,β/2(ti))。
图15表示具有起振特征值XO的序列{10,2,0.5,5,1,0,3,4,2}的似然度P(XO(ti)∣Zb=6,n(ti))的对数计算的示例结果。如图15所示,帧ti具有的起振特征值XO越大,似然度P(XO(ti)∣Zb,n=0(ti))相对于似然度P(XO(ti)∣Zb,n≠0(ti))越大。如上所述,设置概率模型(第一至第三正态分布及其参数(均值和方差))使得帧ti具有的起振特征值XO越大,具有帧的数量n的值为“0”的节拍存在的概率越高。第一至第三正态分布的参数值不限制于上述实施例。可以基于重复试验或者通过机器学习来确定这些参数值。在该示例中,使用正态分布作为用以计算起振特征值XO的似然度P的概率分布函数。然而,可以使用不同的函数(例如,伽马分布或泊松分布)作为概率分布函数。
在步骤S173处,CPU12a计算似然度P(XB(ti)∣Zb,n(ti))。似然度P(XB(ti)∣Zb=γ,n(ti))等同于BPM特征值XB(ti)相对于图16中表示的模板TPγ{γ=1,2,…}的拟合优度。具体地,似然度P(XB(ti)∣Zb=γ,n(ti))等同于BPM特征值XB(ti)与模板TPγ{γ=1,2,…}的内积(见图14的步骤S173的表达式)。在该表达式中,“κb”是定义BPM特征值XB相对于起振特征值XO的权重的因子。换而言之,κb越大,结果在稍后描述的节拍/拍速同时估计处理中得到的BPM特征值XB越大。另外,在该表达式中,“Z(κb)”是取决于κb的归一化因子。如图16所示,模板TPγ由要与形成BPM特征值XB(ti)的BPM特征值XBb(ti)相乘的因子δγ,b形成。设计模板TPγ使得δγ,γ全局最大,同时因子δγ,2γ、因子δγ,3γ、…、因子δγ,(“γ”的整数倍)中的每一个局部最大。具体地,例如,模板TPγ=2被设计为拟合其中每隔两帧存在一个节拍的乐曲。在本示例中,模板TP用于计算BPM特征值XB的似然度P。然而,可以使用概率分布函数(例如,多项分布、狄利克雷分布、多维正态分布、以及多维泊松分布)来取代模板TP。
图17例示了在BPM特征值XB(ti)为图13所示的值的情况下通过使用图16所示的模板TPγ{γ=1,2,…}计算似然度P(XB(ti)∣Zb,n(ti))的对数计算的结果。在该示例中,由于似然度P(XB(ti)∣Zb=4,n(ti))最大,因此BPM特征值XB(ti)最好地拟合模板TP4
在步骤S174处,CPU12a合并似然度P(XO(ti)∣Zb,n(ti))的对数和似然度P(XB(ti)∣Zb,n(ti))的对数并且将合并的结果定义为对数观测似然度Lb,n(ti)。可以通过将合并似然度P(XO(ti)∣Zb,n(ti))和似然度P(XB(ti)∣Zb,n(ti))而得到的结果的对数定义为对数观测似然度Lb,n(ti)来类似地得到相同的结果。在步骤S175处,CPU12a终止对数观测似然度计算处理,以前进到声音信号分析处理(主程序)的步骤S180。
在步骤S180处,CPU12a从ROM12b中读出图18所示的节拍/拍速同时估计程序,并且执行该程序。节拍/拍速同时估计程序是声音信号分析程序的子程序。节拍/拍速同时估计程序是用于通过使用维特比(Viterbi)算法来计算极大似然度状态的序列Q的程序。在下文中,将简略的说明该程序。首先,CPU12a将在选择似然度序列就好像当从帧t0至帧ti观测起振特征值XO和BPM特征值XB时帧ti的状态qb,n最大的情况下的状态qb,n的似然度存储来作为似然度Cb,n(ti)。另外,CPU12a还分别存储恰在向状态qb,n转变之前的帧的状态(紧挨在转变之前的状态)来作为状态Ib,n(ti)。具体地,如果转变后的状态是状态qb=βe,n=ηe,同时转变前的状态是状态qb=βs,n=ηs,则状态Ib=βe,n=ηe(ti)是状态qb=βs,n=ηs。CPU12a计算似然度C和状态I直到CPU12a达到帧t最后,并且使用计算结果来选择极大似然序列Q。
在稍后将描述的具体示例中,为简洁起见,将要分析的乐曲的节拍周期b的值为“3”、“4”或“5”。作为具体示例,具体地将说明如图19所示的计算对数观测似然度Lb,n(ti)的情况的节拍/拍速同时估计处理的过程。在该示例中,假设其中节拍周期b的值为“3”、“4”和“5”以外的任何值的状态的观测似然度足够小,使得图19至图21中省略了其中节拍周期b的值为“3”、“4”和“5”以外的任何值的状态的观测似然度。另外,在该示例中,按如下方式来设置从其中节拍周期b的值为“βs”且帧的数量n的值为“ηs”的状态到其中节拍周期b的值为“βe”且帧的数量n的值为“ηe”的状态的对数转变概率T的值:如果“ηe=0”、“βe=βs”且“ηe=βe-1”,则对数转变概率T的值为“-0.2”。如果“ηs=0”、“βe=βs+1”且“ηe=βe-1”,则对数转变概率T的值为“-0.6”。如果“ηs=0”、“βe=βs-1”且“ηe=βe-1”,则对数转变概率T的值为“-0.6”。如果“ηs>0”、“βe=βs”并且“ηe=ηs-1”,则对数转变概率T的值为“0”。除上述情况以外的情况的对数转变概率T的值为“-∞”。具体地,在从其中帧的数量n的值为“0”的状态(ηs=0)向下一状态转变时,节拍周期b的值增加或减小“1”。另外,在该转变时,帧的数量n的值被设置为比转变后节拍周期值b小“1”的值。在从其中帧的数量n的值不是“0”的状态(ηs≠0)转变至下一状态时,将不改变节拍周期b的值,但是帧的数量n的值减“1”。
在下文中,将具体描述节拍/拍速同时估计处理。在步骤S181处,CPU12a开始节拍/拍速同时估计处理。在步骤S182处,用户通过使用输入操作元件11来输入与图20所示的各个状态qb,n对应的似然度C的初始条件CSb,n。初始条件CSb,n可以存储在ROM12b中使得CPU12a可以从ROM12b中读出初始条件CSb,n
在步骤S183处,CPU12a计算似然度Cb,n(ti)和状态Ib,n(ti)。可以通过将初始条件CSb=βe,n=ηe与对数观测似然度Lb=βe,n=ηe(t0)合并来得到其中在帧t0处节拍周期b的值为“βe”并且帧的数量n的值为“ηe”的状态qb=βe,n=ηe中的似然度Cb=βe,n=ηe(t0)。
此外,在从状态qb=βs,n=ηs向状态qb=βe,n=ηe转变时,可以按如下方式来计算似然度Cb=βe,n=ηe(ti){i>0}。如果状态qb=βs,n=ηs的帧的数量n不为“0”(即,ηs≠0),则通过合并似然度Cb=βe,n=ηe+1(ti-1)、对数观测似然度Lb=βe,n=ηe(ti)、和对数转变概率T来得到似然度Cb=βe,n=ηe(ti)。然而,在该实施例中,由于转变之前的状态的帧的数量n不是“0”的情况下的对数转变概率T为“0”,因此实质上通过合并Cb=βe,n=ηe+1(ti-1)和对数观测似然度Lb=βe,n=ηe(ti)来得到似然度Cb=βe,n=ηe(ti)(Cb=βe,n=ηe(ti)=Cb=βe,n=ηe+1(ti-1)+Lb=βe,n=ηe(ti))。另外,在该情况下,状态Ib=βe,n=ηe(ti)是状态qb=βe,n=ηe+1。例如,在如图20所示来计算似然度C的示例中,似然度C4,1(t2)的值为“-0.3”,同时对数观测似然度L4,0(t3)的值为“1.1”。因此,似然度C4,0(t3)为“0.8”。另外,如图21所示,状态I4,0(t3)为状态q4,1
此外,按如下方式来计算其中状态qb=βs,n=ηs的帧的数量n为“0”的情况(ηs=0)的似然度Cb=βe,n=ηe(ti)。在该情况下,随着状态转变,节拍周期b的值可以增加或减少。因此,将对数转变概率T分别与似然度Cβe-1,0(ti-1)、似然度Cβe,0(ti-1)和似然度Cβe+1,0(ti-1)合并。然后,进一步将合并的结果的最大值与对数观测似然度Lb=βe,n=ηe(ti)合并,从而将合并的结果定义为似然度Cb=βe,n=ηe(ti)。此外,状态Ib=βe,n=ηe(ti)是选自状态qβe-1,0、状态qβe,0、和状态qβe+1,0的状态q。具体地,将对数转变概率T分别加至状态qβe-1,0、状态qβe,0、和状态qβe+1,0的似然度Cβe-1,0(ti-1)、似然度Cβe,0(ti-1)和似然度Cβe+1,0(ti-1),以选择具有最大求和值状态,从而将选择的状态定义为状态Ib=βe,n=ηe(ti)。更加严格地,需要将似然度Cb,n(ti)归一化。然而,即使不进行归一化,节拍位置和拍速变化的估计结果数学上仍是相同的。
例如,按如下方式来计算似然度C4,3(t3)。由于在转变之前的状态为状态q3,0的情况下,似然度C3,0(t2)的值为“0.0”同时对数转变概率T为“-0.6”,因此通过合并似然度C3,0(t2)和对数转变概率T得到的值为“-0.6”。另外,由于在转变前的状态为状态q4,0的情况下,转变前的似然度C4,0(t2)的值为“-1.2”同时对数转变概率T为“-0.2”,因此通过合并似然度C4,0(t2)和对数转变概率T得到的值为“-1.4”。此外,由于在转变前的状态为状态q5,0的情况下,转变前的似然度C5,0(t2)的值为“-1.2”同时对数转变概率T为“-0.6”,因此通过合并似然度C5,0(t2)和对数转变概率T得到的值为“-1.8”。因此,通过合并似然度C3,0(t2)和对数转变概率T得到的值最大。此外,对数观测似然度L4,3(t3)的值为“-1.1”。因此,似然度C4,3(t3)的值为“-1.7”(=-0.6+(-1.1)),使得状态I4,3(t3)为状态q3,0
当针对所有帧ti完成了对所有状态qb,n的似然度Cb,n(ti)和状态Ib,n(ti)的计算时,CPU12a前进到步骤S184,以按如下方式来确定极大似然度状态的序列Q(={qmax(t0),qmax(t1),…,qmax(t最后)})。首先,CPU12a将帧t最后内的具有极大似然度Cb,n(t最后)的状态qb,n定义为状态qmax(t最后)。状态qmax(t最后)的节拍周期b的值由“βm”表示,同时帧的数量n的值由“ηm”表示。具体地,状态Iβm,ηm(t最后)是紧挨在帧t最后之前的帧t最后-1的状态qmax(t最后-1)。按类似于状态qmax(t最后-1)的方式来确定帧t最后-2、帧t最后-3、…的状态qmax(t最后-2)、状态qmax(t最后-3)、…。具体地,其中帧ti+1的状态qmax(ti+1)的节拍周期b的值由“βm”表示、同时帧的数量n的值由“ηm”表示的状态Iβm,ηm(ti+1)是紧挨在帧ti+1之前的帧ti的状态qmax(ti)。如上所述,CPU12a依次确定从帧t最后-1至帧t0的状态qmax,以确定极大似然状态的序列Q。
例如,在图20和图21示出的示例中,在帧t最后=77中,状态q5,1的似然度C5,1(t最后=77)最大。因此,状态qmax(t最后=77)为状态q5,1。根据图21,由于状态I5,1(t77)为状态q5,2,因此状态qmax(t76)为状态q5,2。另外,由于状态I5,2(t76)为状态q5,3,因此状态qmax(t75)为状态q5,3。同样按类似于状态qmax(t76)和状态qmax(t75)的方式来确定状态qmax(t74)至状态qmax(t0)。如上所述,确定了如图20中的箭头所示的极大似然状态的序列Q。在该示例中,节拍周期b的值先被估计为“3”,但是接近帧t40时节拍周期b的值变为“4”,并且在接近t44时进一步变为“5”。另外,在序列Q中,估计出节拍存在于与其中帧的数量n的值为“0”的状态qmax(t0)、qmax(t3),…对应的帧t0、t3,…中。
在步骤S185处,CPU12a终止节拍/拍速同时估计处理以前进到声音信号分析处理(主程序)的步骤S190。
在步骤S190处,CPU12a针对每个帧ti计算“BPM率”、“BPM率的均值”、“BPM率的方差”、“基于观测的概率”、“节拍率”、“节拍存在的概率”、以及“节拍不存在的概率”(见图23所示的表达式)。“BPM率”表示帧ti中的拍速值是与节拍周期b对应的值的概率。“BPM率”是通过将似然度Cb,n(ti)归一化并且将帧的数量n边缘化来得到的。具体地,在节拍周期b的值为“β”的情况下的“BPM率”为其中节拍周期b的值为“β”的各状态的似然度C之和与帧ti中所有状态的似然度C之和的比率。“BPM率的均值”是这样得到的:通过将帧ti中与节拍周期b的各值对应的各“BPM率”乘以节拍周期b的各值,并且将通过合并乘积结果而得到的值除以通过合并帧ti的所有“BPM率”而得到的值。“BPM率的方差”按如下方式来计算。首先,从节拍周期b的各个值中减去帧ti中的“BPM率的均值”,以将各个求差的结果取二次方,再将各个平方的结果乘以与节拍周期b的各个值对应的各个“BPM率”的值。然后,将通过合并各个乘积的结果得到的值除以通过合并帧ti的所有“BPM率”得到的值,从而得到“BPM率的方差”。图22例示了以上计算的“BPM率”、“BPM率的均值”和“BPM率的方差”的各个值。“基于观测的概率”表示基于其中在帧ti中存在节拍的观测值(即,起振特征值XO)而计算出的概率。具体地,“基于观测的概率”为起振特征值XO(ti)与特定基准值XObase的比率。“节拍率”为似然度P(XO(ti)∣Zb,0(ti))与通过合并帧的数量n的所有值的起振特征值XO(ti)的似然度P(XO(ti)∣Zb,n(ti))得到的值的比率。“节拍存在的概率”和“节拍不存在的概率”是通过将节拍周期b的似然度Cb,n(ti)边缘化而得到的。具体地,“节拍存在的概率”为其中帧的数量n的值为“0”的各状态的似然度C之和与帧ti中所有状态的似然度C之和的比率。“节拍不存在的概率”为其中帧的数量n的值不为“0”的各状态的似然度C之和与帧ti中所有状态的似然度C之和的比率。
通过使用“BPM率”、“基于观测的概率”、“节拍率”、“节拍存在的概率”、以及“节拍不存在的概率”,CPU12a在显示单元13上显示如图23所示的节拍/拍速信息列表。在列表的“估计的拍速值(BPM)”栏,显示与具有在以上计算的“BPM率”所包含的概率中的最高概率的周期b对应的拍速值(BPM)。在包含在以上确定的状态qmax(ti)内并且其帧的数量n的值为“0”的帧的“节拍的存在”栏上,显示“○”。在其它帧的“节拍的存在”栏上,显示“×”。而且,通过使用估计的拍速值(BPM),CPU12a在显示单元13上显示如图24所示的表示拍速变化的图。图24所示的示例将拍速的变化表示为柱状图。在参照图20和图21说明的示例中,尽管节拍周期b的值开始为“3”,但节拍周期b的值在帧t40处变为“4”,并且进一步在t44处变为“5”。因此,用户可以在视觉上识别拍速的变化。而且,通过使用以上计算的“节拍存在的概率”,CPU12a在显示单元13上显示如图25所示的表示节拍位置的图。而且,通过使用以上计算的“起振特征值XO”、“BPM率的方差”和“节拍的存在”,CPU12a在显示单元13上显示如图26所示的表示拍速稳定性的图。
而且,在通过在声音信号分析处理的步骤S130处搜索现有数据而找到了现有数据的情况下,在步骤S190处CPU12a通过使用在步骤S150处读入至RAM12c的与先前分析结果有关的各种数据,在显示单元13上显示节拍/拍速信息列表、表示拍速变化的图、以及表示节拍位置和拍速稳定性的图。
在步骤S200处,CPU12a在显示单元13上显示询问用户是否想要开始再现乐曲的消息,并且等待用户的指示。用户通过使用输入操作元件11,要么指示开始再现乐曲,要么指示执行稍后描述的节拍/拍速信息校正处理。例如,用户用鼠标点击未示出的图标。
如果在步骤S200处用户已指示执行节拍/拍速信息校正处理,则CPU12a确定为“否”,以前进到步骤S210,执行节拍/拍速信息校正处理。首先,CPU12a进行等待,直到用户完成校正信息的输入。用户通过使用操作元件11,输入“BPM率”、“节拍存在的概率”等的校正值。例如,用户用鼠标选择其想要校正的帧,并且用数字小键盘输入校正值。然后,为了明确地表示值的校正,位于校正项的右边的“F”的显示模式(例如,颜色)改变。用户可以校正多个项的各个值。一旦完成校正值的输入,用户通过使用输入操作元件11通知完成了校正信息的输入。例如,用户通过使用鼠标来点击未示出但表示校正完成的图标。CPU12a根据校正值来更新似然度P(XO(ti)∣Zb,n(ti))和似然度P(XB(ti)∣Zb,n(ti))中的任一个或两者。例如,在用户已进行校正使得帧ti中的“节拍存在的概率”增加同时针对校正值的帧的数量n的值为“ηe”的情况下,CPU12a将似然度P(XB(ti)∣Zb,n≠ηe(ti))设置为足够小的值。因此,在帧ti处,帧的数量n的值为“ηe”的概率相对最高。而且,例如,在用户已校正帧ti的“BPM率”使得节拍周期b的值为“βe”的概率增加的情况下,CPU12a将其中节拍周期b的值不为“βe”的状态的似然度P(XB(ti)∣Zb≠βe,n(ti))设置为足够小的值。因此,在帧ti处,节拍周期b的值为“βe”的概率相对最高。然后,CPU12a终止节拍/拍速信息校正处理,以前进到步骤S180,通过用校正的对数观测似然度L来再次执行节拍/拍速同时估计处理。
如果用户已指示开始再现乐曲,则CPU12a确定为“是”以前进到步骤S220从而将关于似然度C、状态I、和节拍/拍速信息列表的分析结果的各种数据存储在存储装置14中,使得各种数据与乐曲的标题相关联。
在步骤S230处,CPU12a从ROM12b中读出图27所示的再现/控制程序,并且执行该程序。再现/控制程序是声音信号分析程序的子程序。
在步骤S231处,CPU12a开始再现/控制处理。在步骤S232处,CPU12a将表示要再现的帧的帧号i设置为“0”。在步骤S233处,CPU12a将帧ti的采样值传输至声音***16。类似于第一实施例,声音***16通过使用从CPU12a接收的采样值来再现与乐曲的帧ti对应的部分。在步骤S234处,CPU12a判断帧ti的“BPM率的方差”是否小于预定的基准值σs 2(例如,0.5)。如果“BPM率的方差”小于基准值σs 2,则CPU12a确定为“是”以前进到步骤S235从而执行用于稳定的BPM的预定处理。如果“BPM率的方差”等于或大于基准值σs 2,则CPU12a确定为“否”,以前进到步骤S236从而执行用于不稳定的BPM的预定处理。由于步骤S235和S236分别类似于第一实施例的步骤S18和S19,因此将省略有关步骤S235和S236的说明。在图26的示例中,从帧t39至帧t53“BPM率的方差”等于或大于基准值σs 2。因此,在图26的示例中,在步骤S236处CPU12a在帧t40至帧t53中执行用于不稳定的BPM的处理。在头几帧中,即使节拍周期b是常数“BPM率的方差”仍倾向于大于基准值σs 2。因此,可以构造再现/控制处理使得在步骤S235处CPU12a在头几帧中执行用于稳定的BPM的处理。
在步骤S237处,CPU12a判断当前处理的帧是否为最后的帧。具体地,CPU12a判断帧号i的值是否为“最后”。如果当前处理的帧不是最后的帧,则CPU12a确定为“否”,并且在步骤S238处增加帧号i。在步骤S238后,CPU12a前进到步骤S233以再次执行步骤S233至S238。如果当前处理的帧是最后的帧,则CPU12a确定为“是”以在步骤S239处终止再现/控制处理,然后返回至声音信号分析处理(主程序)以在步骤S240处终止声音信号分析处理。因此,声音信号分析设备10可以控制外部设备EXT、声音***16等,还能够从乐曲的开端至末端平滑地再现乐曲。
根据第二实施例的声音信号分析设备10可以选择通过使用与节拍位置相关的起振特征值XO和与拍速相关的BPM特征值XB而计算出的对数观测似然度L的最可能的序列的概率模型,以同时(一道地)估计乐曲中的节拍位置和拍速的变化。因此,与通过计算得出乐曲的节拍位置从而通过使用该计算结果得到拍速的情况相比,声音信号分析设备10可以提高拍速估计的精度。
另外,根据第二实施例的声音信号分析设备10根据“BPM率的方差”的值来控制目标。具体地,如果“BPM率的方差”的值等于或大于基准值σs 2,则声音信号分析设备10判断拍速值的可靠性低,并且执行用于不稳定的拍速的处理。因此,声音信号分析设备10可以防止出现当拍速不稳定时乐曲的节奏不能与目标的操作同步的问题。因此,声音信号分析设备10可以防止目标的不自然的操作。
而且,本发明不限制于上述实施例,而是可以在不偏离本发明目标的情况下对其进行多样地修改。
例如,尽管第一实施例和第二实施例被设计为使得声音信号分析设备10再现乐曲,但仍可以修改实施例使得外部设备再现乐曲。
另外,第一实施例和第二实施例被设计为使得基于两个等级来评价拍速稳定性:拍速稳定还是不稳定。然而,可以基于三个或更多的等级来评价拍速稳定性。在该变型中,可以根据拍速稳定性的等级(稳定的程度)来可变地控制目标。
另外,在第一实施例中,提供了四个单位部分作为判断部分。然而,单位部分的数量可以多于或小于四个。而且,选为判断部分的单位部分可以不是时间序列上连续的。例如,单位部分可以在时间序列上交替地选择。
而且,在第一实施例中,拍速稳定性是基于相邻的单位部分之间的拍速之差来判断的。然而,可以基于判断部分的最大的拍速值和最小的拍速值之差来判断拍速稳定性。
而且,第二实施例选择了表示作为观测值的起振特征值XO和BPM特征值XB的同时观测的概率的最可能的观测似然序列的概率模型。然而,选择概率模型的标准不限于这些实施例。例如,可以选择最大后验分布的概率模型。
另外,在第二实施例中,每个帧的拍速稳定性是基于每个帧的“BPM率的方差”来判断的。然而,类似于第一实施例,通过使用各帧的各个估计的拍速值,可以计算出各帧中拍速的变化量,从而根据该计算的结果来控制目标。
另外,在第二实施例中,计算极大似然状态的序列Q来确定每个帧中节拍的存在/不存在和拍速值。然而,可以基于与帧ti的似然度C中包含的极大似然度C对应的状态qb,n的节拍周期b和帧的数量n的值来确定帧中的节拍的存在/不存在和拍速值。该变型可以减少分析所需的时间,这是因为该变型不需要计算极大似然状态的序列Q。
另外,为了简洁起见,第二实施例被设计为使得每个帧的长度为125ms。然而,每个帧可以具有更短的长度(例如,5ms)。减小的帧长度可以有助于改善与节拍位置和拍速的估计相关的分辨率。例如,增强的分辨率能够使拍速估计以1BPM增加。

Claims (11)

1.一种声音信号分析设备,包括:
声音信号输入装置,其用于输入表示乐曲的声音信号;
拍速检测装置,其用于通过使用所输入的声音信号来检测所述乐曲的每个部分的拍速;
判断装置,其用于判断所述拍速的稳定性;以及
控制装置,其用于根据由所述判断装置判断的结果来控制特定目标,
其中,所述拍速检测装置具有:
特征值计算装置,其用于计算第一特征值和第二特征值,所述第一特征值表示与节拍的存在相关的特征,所述第二特征值表示与所述乐曲的每个部分的拍速相关的特征;以及
估计装置,其用于通过从多个概率模型中选择其观测似然度的序列满足一定标准的一个概率模型来同时估计所述乐曲中的节拍位置和拍速变化,所述多个概率模型被描述为根据与所述每个部分中的节拍的存在相关的物理量和与所述每个部分中的拍速相关的物理量的结合来分类的各状态的序列,所述一个概率模型的所述观测似然度的序列中的每一个观测似然度表示所述每个部分中的所述第一特征值和所述第二特征值的同时观测概率。
2.根据权利要求1所述的声音信号分析设备,其中
所述估计装置通过从所述多个概率模型中选择最可能的观测似然度的序列的概率模型来同时估计所述乐曲中的节拍位置和拍速变化。
3.根据权利要求1所述的声音信号分析设备,其中
所述估计装置具有第一概率输出装置,其用于输出这样的概率来作为所述第一特征值的观测概率:所述概率是通过将所述第一特征值指定为根据与节拍的存在相关的物理量而定义的概率分布函数的概率变量来计算得到的。
4.根据权利要求3所述的声音信号分析设备,其中
所述第一概率输出装置输出通过将所述第一特征值指定为根据与节拍的存在相关的物理量来定义的正态分布、伽马分布和泊松分布中的任何一个的概率变量而计算出的概率,来作为所述第一特征值的观测概率。
5.根据权利要求1所述的声音信号分析设备,其中
所述估计装置具有第二概率输出装置,其用于输出所述第二特征相对于根据与拍速相关的物理量而提供的多个模板的拟合优度,来作为所述第二特征值的观测概率。
6.根据权利要求1所述的声音信号分析设备,其中
所述估计装置具有第二概率输出装置,其用于输出这样的概率来作为所述第二特征值的观测概率:所述概率是通过将所述第二特征值指定为根据与拍速相关的物理量而定义的概率分布函数的概率变量而计算得到的。
7.根据权利要求6所述的声音信号分析设备,其中
所述第二概率输出装置输出通过将所述第二特征值指定为根据与拍速相关的物理量来定义的多项分布、狄利克雷分布、多维正态分布、以及多维泊松分布中的任何一个的概率变量而计算出的概率,作为所述第二特征值的观测概率。
8.根据权利要求1所述的声音信号分析设备,其中
所述判断装置根据从所述乐曲的开端到各个部分观测的所述第一特征值和所述第二特征值来计算各个部分中的各个状态的似然度,并且根据各个部分中的各个状态的似然度的分布来判断各个部分中的拍速的稳定性。
9.根据权利要求1所述的声音信号分析设备,其中
如果各部分之间的拍速的变化量落在预定的范围内,则所述判断装置判断拍速稳定,而如果各部分之间的拍速的变化量在所述预定的范围以外,则所述判断装置判断拍速不稳定。
10.根据权利要求1至9中任一项所述的声音信号分析设备,其中
在拍速稳定的部分中,所述控制装置使所述目标在预定的第一模式下操作,而在拍速不稳定的部分中,所述控制装置使所述目标在预定的第二模式下操作。
11.一种声音信号分析方法,包括步骤:
声音信号输入步骤,其用于输入表示乐曲的声音信号;
拍速检测步骤,其用于通过使用所输入的声音信号来检测所述乐曲的每个部分的拍速;
判断步骤,其用于判断所述拍速的稳定性;以及
控制步骤,其用于根据通过所述判断步骤判断的结果来控制特定目标,
其中,所述拍速检测步骤包括:
特征值计算步骤,其用于计算第一特征值和第二特征值,所述第一特征值表示与节拍的存在相关的特征,所述第二特征值表示与所述乐曲的每个部分的拍速相关的特征;以及
估计步骤,其用于通过从多个概率模型中选择其观测似然度的序列满足一定标准的一个概率模型来同时估计所述乐曲中的节拍位置和拍速变化,所述多个概率模型被描述为根据与所述每个部分中的节拍的存在相关的物理量和与所述每个部分中的拍速相关的物理量的结合来分类的各状态的序列,所述一个概率模型的所述观测似然度的序列中的每一个观测似然度表示所述每个部分中的所述第一特征值和所述第二特征值的同时观测概率。
CN201410092702.7A 2013-03-14 2014-03-13 声音信号分析设备以及声音信号分析方法和程序 Expired - Fee Related CN104050974B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013051159A JP6179140B2 (ja) 2013-03-14 2013-03-14 音響信号分析装置及び音響信号分析プログラム
JP2013-051159 2013-03-14

Publications (2)

Publication Number Publication Date
CN104050974A CN104050974A (zh) 2014-09-17
CN104050974B true CN104050974B (zh) 2019-05-03

Family

ID=50190343

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410092702.7A Expired - Fee Related CN104050974B (zh) 2013-03-14 2014-03-13 声音信号分析设备以及声音信号分析方法和程序

Country Status (4)

Country Link
US (1) US9087501B2 (zh)
EP (1) EP2779156B1 (zh)
JP (1) JP6179140B2 (zh)
CN (1) CN104050974B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6123995B2 (ja) * 2013-03-14 2017-05-10 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
JP6179140B2 (ja) * 2013-03-14 2017-08-16 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
JP6693189B2 (ja) * 2016-03-11 2020-05-13 ヤマハ株式会社 音信号処理方法
JP6631713B2 (ja) * 2016-07-22 2020-01-15 ヤマハ株式会社 タイミング予想方法、タイミング予想装置、及び、プログラム
US10846519B2 (en) 2016-07-22 2020-11-24 Yamaha Corporation Control system and control method
JP6597903B2 (ja) * 2016-07-22 2019-10-30 ヤマハ株式会社 楽曲データ処理方法およびプログラム
EP3489945B1 (en) * 2016-07-22 2021-04-14 Yamaha Corporation Musical performance analysis method, automatic music performance method, and automatic musical performance system
JP6754243B2 (ja) * 2016-08-05 2020-09-09 株式会社コルグ 楽音評価装置
GB201620839D0 (en) * 2016-12-07 2017-01-18 Weav Music Ltd Data format
GB201620838D0 (en) 2016-12-07 2017-01-18 Weav Music Ltd Audio playback
JP6729515B2 (ja) 2017-07-19 2020-07-22 ヤマハ株式会社 楽曲解析方法、楽曲解析装置およびプログラム
CN112489676B (zh) * 2020-12-15 2024-06-14 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、装置、设备及存储介质
CN113823325A (zh) * 2021-06-03 2021-12-21 腾讯科技(北京)有限公司 音频节奏检测方法、装置、设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175073A (ja) * 2000-12-08 2002-06-21 Nippon Telegr & Teleph Corp <Ntt> 演奏採取装置,演奏採取方法および演奏採取用プログラム記録媒体
CN101038739A (zh) * 2006-03-16 2007-09-19 索尼株式会社 用于附加元数据的方法和设备

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
US5585585A (en) * 1993-05-21 1996-12-17 Coda Music Technology, Inc. Automated accompaniment apparatus and method
US5808219A (en) 1995-11-02 1998-09-15 Yamaha Corporation Motion discrimination method and device using a hidden markov model
EP1490767B1 (en) 2001-04-05 2014-06-11 Audible Magic Corporation Copyright detection and protection system and method
US8487176B1 (en) 2001-11-06 2013-07-16 James W. Wieder Music and sound that varies from one playback to another playback
JP4201679B2 (ja) * 2003-10-16 2008-12-24 ローランド株式会社 波形発生装置
US7518053B1 (en) * 2005-09-01 2009-04-14 Texas Instruments Incorporated Beat matching for portable audio
US7668610B1 (en) 2005-11-30 2010-02-23 Google Inc. Deconstructing electronic media stream into human recognizable portions
JP4654896B2 (ja) * 2005-12-06 2011-03-23 ソニー株式会社 オーディオ信号の再生装置および再生方法
JP3968111B2 (ja) * 2005-12-28 2007-08-29 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム機及びゲームプログラム
JP4415946B2 (ja) * 2006-01-12 2010-02-17 ソニー株式会社 コンテンツ再生装置および再生方法
DE602007001281D1 (de) * 2006-01-20 2009-07-30 Yamaha Corp Vorrichtung zur Steuerung der Wiedergabe von Musik und Vorrichtung zur Wiedergabe von Musik
JP5351373B2 (ja) * 2006-03-10 2013-11-27 任天堂株式会社 演奏装置および演奏制御プログラム
JP4660739B2 (ja) 2006-09-01 2011-03-30 独立行政法人産業技術総合研究所 音分析装置およびプログラム
US8005666B2 (en) 2006-10-24 2011-08-23 National Institute Of Advanced Industrial Science And Technology Automatic system for temporal alignment of music audio signal with lyrics
JP4322283B2 (ja) 2007-02-26 2009-08-26 独立行政法人産業技術総合研究所 演奏判定装置およびプログラム
JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
US20090071315A1 (en) 2007-05-04 2009-03-19 Fortuna Joseph A Music analysis and generation method
JP5088030B2 (ja) 2007-07-26 2012-12-05 ヤマハ株式会社 演奏音の類似度を評価する方法、装置およびプログラム
JP4953478B2 (ja) 2007-07-31 2012-06-13 独立行政法人産業技術総合研究所 楽曲推薦システム、楽曲推薦方法及び楽曲推薦用コンピュータプログラム
JP4882918B2 (ja) 2007-08-21 2012-02-22 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4640407B2 (ja) 2007-12-07 2011-03-02 ソニー株式会社 信号処理装置、信号処理方法及びプログラム
JP5092876B2 (ja) 2008-04-28 2012-12-05 ヤマハ株式会社 音響処理装置およびプログラム
JP5337608B2 (ja) * 2008-07-16 2013-11-06 本田技研工業株式会社 ビートトラッキング装置、ビートトラッキング方法、記録媒体、ビートトラッキング用プログラム、及びロボット
US8481839B2 (en) * 2008-08-26 2013-07-09 Optek Music Systems, Inc. System and methods for synchronizing audio and/or visual playback with a fingering display for musical instrument
JP5463655B2 (ja) 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5625235B2 (ja) 2008-11-21 2014-11-19 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5282548B2 (ja) 2008-12-05 2013-09-04 ソニー株式会社 情報処理装置、音素材の切り出し方法、及びプログラム
JP5206378B2 (ja) 2008-12-05 2013-06-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5593608B2 (ja) 2008-12-05 2014-09-24 ソニー株式会社 情報処理装置、メロディーライン抽出方法、ベースライン抽出方法、及びプログラム
US9310959B2 (en) 2009-06-01 2016-04-12 Zya, Inc. System and method for enhancing audio
JP5605066B2 (ja) 2010-08-06 2014-10-15 ヤマハ株式会社 音合成用データ生成装置およびプログラム
JP6019858B2 (ja) 2011-07-27 2016-11-02 ヤマハ株式会社 楽曲解析装置および楽曲解析方法
CN102956230B (zh) 2011-08-19 2017-03-01 杜比实验室特许公司 对音频信号进行歌曲检测的方法和设备
US8886345B1 (en) * 2011-09-23 2014-11-11 Google Inc. Mobile device audio playback
US8873813B2 (en) 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
US9015084B2 (en) 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
JP5935503B2 (ja) 2012-05-18 2016-06-15 ヤマハ株式会社 楽曲解析装置および楽曲解析方法
US20140018947A1 (en) * 2012-07-16 2014-01-16 SongFlutter, Inc. System and Method for Combining Two or More Songs in a Queue
KR101367964B1 (ko) 2012-10-19 2014-03-19 숭실대학교산학협력단 복합 센서를 이용한 사용자 상황 인식 방법
US8829322B2 (en) 2012-10-26 2014-09-09 Avid Technology, Inc. Metrical grid inference for free rhythm musical input
US9195649B2 (en) 2012-12-21 2015-11-24 The Nielsen Company (Us), Llc Audio processing techniques for semantic audio recognition and report generation
US9158760B2 (en) 2012-12-21 2015-10-13 The Nielsen Company (Us), Llc Audio decoding with supplemental semantic audio recognition and report generation
US9183849B2 (en) 2012-12-21 2015-11-10 The Nielsen Company (Us), Llc Audio matching with semantic audio recognition and report generation
US9620092B2 (en) 2012-12-21 2017-04-11 The Hong Kong University Of Science And Technology Composition using correlation between melody and lyrics
EP2772904B1 (en) 2013-02-27 2017-03-29 Yamaha Corporation Apparatus and method for detecting music chords and generation of accompaniment.
JP6179140B2 (ja) * 2013-03-14 2017-08-16 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
JP6123995B2 (ja) 2013-03-14 2017-05-10 ヤマハ株式会社 音響信号分析装置及び音響信号分析プログラム
CN104217729A (zh) 2013-05-31 2014-12-17 杜比实验室特许公司 音频处理方法和音频处理装置以及训练方法
GB201310861D0 (en) 2013-06-18 2013-07-31 Nokia Corp Audio signal analysis
US9263018B2 (en) 2013-07-13 2016-02-16 Apple Inc. System and method for modifying musical data
US9012754B2 (en) 2013-07-13 2015-04-21 Apple Inc. System and method for generating a rhythmic accompaniment for a musical performance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175073A (ja) * 2000-12-08 2002-06-21 Nippon Telegr & Teleph Corp <Ntt> 演奏採取装置,演奏採取方法および演奏採取用プログラム記録媒体
CN101038739A (zh) * 2006-03-16 2007-09-19 索尼株式会社 用于附加元数据的方法和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Analysis of the Meter of Acoustic Musical Signals;Anssi P. Klapuri etc;《IEEE Transactions on Audio, Speech, and Language Processing》;20060131;第14卷(第1期);第342-355页
Drum’N’Bayes: On-line Variational Inference for Beat Tracking and Rhythm Recognition;Charles Fox etc;《User Modeling for Computer Human Interaction》;20070131;第1-8页

Also Published As

Publication number Publication date
US20140260911A1 (en) 2014-09-18
JP2014178395A (ja) 2014-09-25
CN104050974A (zh) 2014-09-17
EP2779156B1 (en) 2019-06-12
US9087501B2 (en) 2015-07-21
EP2779156A1 (en) 2014-09-17
JP6179140B2 (ja) 2017-08-16

Similar Documents

Publication Publication Date Title
CN104050974B (zh) 声音信号分析设备以及声音信号分析方法和程序
CN104050972B (zh) 声音信号分析设备以及声音信号分析方法和程序
JP6187132B2 (ja) スコアアライメント装置及びスコアアライメントプログラム
JP5228432B2 (ja) 素片検索装置およびプログラム
JP4695853B2 (ja) 音楽検索装置
MX2011012749A (es) Sistema y metodo para recibir, analizar y editar audio para crear composiciones musicales.
JP6252147B2 (ja) 音響信号分析装置及び音響信号分析プログラム
CN104900231B (zh) 语音检索装置以及语音检索方法
JP4560544B2 (ja) 楽曲検索装置、楽曲検索方法および楽曲検索プログラム
JP2012247957A (ja) データ処理装置およびプログラム
JP6295794B2 (ja) 音響信号分析装置及び音響信号分析プログラム
JP6296221B2 (ja) 音響信号のアライメント装置、アライメント方法及びコンピュータプログラム
JP2008216486A (ja) 音楽再生システム
CN110070891A (zh) 一种歌曲识别方法、装置以及存储介质
JP3915428B2 (ja) 楽曲分析装置、及びプログラム
JP4347815B2 (ja) テンポ抽出装置およびテンポ抽出方法
JP2004070510A (ja) 情報選択提示装置,情報選択提示方法,情報選択提示プログラム及び該情報選択提示プログラムの記録媒体
JP5742472B2 (ja) データ検索装置およびプログラム
JP6323159B2 (ja) 音響解析装置
JP2018106212A (ja) 音響解析方法および音響解析装置
JP5195879B2 (ja) 楽曲検索再生装置、楽曲検索再生方法、及び楽曲検索再生プログラム
JP6728847B2 (ja) 自動伴奏装置、自動伴奏プログラムおよび出力伴奏データ生成方法
JP4246160B2 (ja) 楽曲検索装置および楽曲検索方法
JP2014063371A (ja) 動画再生装置、動画再生方法、及びプログラム
JP2011081824A (ja) 楽曲検索再生装置、楽曲検索再生方法、及び楽曲検索再生プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190503

CF01 Termination of patent right due to non-payment of annual fee